Fin mai 2020, le DĂ©fenseur des droits et la Cnil lançaient l’alerte sur « les risques considĂ©rables de discrimination » que l’usage des algorithmes pouvait faire peser sur la population, « dans toutes les sphères de notre vie ». En effet : tout scientifiques qu’ils soient, ces outils restent fabriquĂ©s par des humains et alimentĂ©s par des comportements humains. Ils ne sont donc pas exempts de biais.
Un algorithme apprenant ingurgite toutes les donnĂ©es qu’on lui donne pour identifier « de lui-mĂŞme » des liens entre elles et proposer une solution « logique ». Mais de nombreux obstacles se prĂ©sentent avant d’arriver Ă une solution « correcte » : les donnĂ©es peuvent, par exemple, ĂŞtre incomplètes et tromper l’algorithme. D’autres fois, elles peuvent ...
[80% reste Ă lire]
Article réservé aux abonnés
Gazette des Communes
VOUS N'ĂŞTES PAS ABONNĂ© ?
Découvrez nos formules et accédez aux articles en illimité
Je m’abonneCet article fait partie du Dossier
Politiques publiques : les algorithmes vont-ils prendre le pouvoir ?
Sommaire du dossier
- Les algorithmes vont-ils prendre le pouvoir ?
- Intelligence artificielle : des usages qui questionnent mais amenés à se développer
- Nantes publie les premiers codes sources de ses algorithmes
- Montréal veut identifier et limiter le plus possible les biais des algorithmes
- Algorithmes : une essentielle prise en compte de la dimension éthique
- A Valence-Romans, des places en crèche attribuées par un algorithme
- Algorithmes : un cadre transparent pour les citoyens dĂ©sireux de s’informer
- « Pas d’algorithme sans corde de rappel humaine » – Axelle Lemaire
- « Les juges, policiers et avocats vont devoir s’approprier la justice algorithmisĂ©e »
Thèmes abordés








