Fin mai 2020, le Défenseur des droits et la Cnil lançaient l’alerte sur « les risques considérables de discrimination » que l’usage des algorithmes pouvait faire peser sur la population, « dans toutes les sphères de notre vie ». En effet : tout scientifiques qu’ils soient, ces outils restent fabriqués par des humains et alimentés par des comportements humains. Ils ne sont donc pas exempts de biais.
Un algorithme apprenant ingurgite toutes les données qu’on lui donne pour identifier « de lui-même » des liens entre elles et proposer une solution « logique ». Mais de nombreux obstacles se présentent avant d’arriver à une solution « correcte » : les données peuvent, par exemple, être incomplètes et tromper l’algorithme. D’autres fois, elles peuvent ...
[80% reste à lire]
Article réservé aux abonnés
Gazette des Communes
Cet article fait partie du Dossier
Politiques publiques : les algorithmes vont-ils prendre le pouvoir ?
Sommaire du dossier
- Nantes publie les premiers codes sources de ses algorithmes
- Les algorithmes vont-ils prendre le pouvoir ?
- Montréal veut identifier et limiter le plus possible les biais des algorithmes
- Algorithmes : une essentielle prise en compte de la dimension éthique
- A Valence-Romans, des places en crèche attribuées par un algorithme
- Algorithmes : un cadre transparent pour les citoyens désireux de s’informer
- « Pas d’algorithme sans corde de rappel humaine » – Axelle Lemaire
Thèmes abordés