Pour éviter que les algorithmes utilisés dans le cadre de services publics ne produisent des résultats incompréhensibles, dont le fonctionnement échapperait totalement au regard des citoyens, des garanties ont été apportées par la loi du 7 octobre 2016 pour une République numérique. L’objectif étant que l’administré puisse comprendre le fonctionnement de l’algorithme employé pour traiter son dossier.
Première obligation : faire figurer une mention explicite sur les documents publics informant les administrés de la décision prise à leur égard. Cette mention doit notamment contenir les finalités du traitement. Les administrations doivent aussi fournir à l’administré, lorsqu’il en fait la demande, diverses informations : le degré de contribution de l’algorithme, les données traitées… Les plus grandes collectivités (de plus de 3 500 hab. et d’au moins 50 équivalents – temps plein) ont même une obligation d’information générale, en publiant les règles qui définissent leurs principaux algorithmes.
Enfin, lorsqu’un citoyen en fait la demande, l’administration doit lui communiquer le code source de l’algorithme.
Dans un guide publié en 2019, la mission Etalab justifiait ces mesures : « Les algorithmes publics sont des formes de l’action publique et sont soumis à une exigence de redevabilité. Les administrations qui utilisent des algorithmes doivent rendre des comptes de leur utilisation. »
Nécessaire mais pas suffisant
Pour Marina Teller, professeure de droit à l’université Côte d’Azur, la transparence est indispensable, mais pas suffisante : « Structurellement, un algorithme efficace reste une boîte noire. On n’arrivera jamais à démontrer avec certitude qu’un algorithme ne s’est pas trompé. Il faut mettre en place une gouvernance qui réalise un travail contradictoire afin de limiter les risques d’erreurs. »
Limiter les risques, c’est aussi le travail des délégués à la protection des données. « Plusieurs obligations découlent du règlement général à la protection des données, indique Régis Chatellier, chargé d’études prospectives à la Cnil. Il y a notamment une obligation de minimisation des données et une obligation de recours à une analyse d’impact en amont de la mise en œuvre d’un algorithme. »
Selon un rapport des élèves de l’Ena, ce nouveau cadre juridique est vu par les administrations « comme une tâche d’une ampleur incompatible avec les moyens disponibles ». Et il n’est pas sûr que cela évolue rapidement. A l’exception des décisions 100 % automatisées (lire ci-contre), rien n’indique qu’une décision qui ne respecterait pas ces obligations soit annulée par le juge.
Autorisation des décisions 100% automatiques
Nouveauté ! Désormais, en application du règlement général pour la protection des données, une décision administrative produisant des effets à l’égard d’une personne peut être prise sur le seul fondement d’un traitement algorithmique, sans qu’il y ait d’intervention humaine. Toutefois, la mesure est soumise à conditions.
Ces décisions 100 % automatiques ne doivent pas se baser sur des données sensibles (informations sur l’origine raciale, les opinions politiques, les convictions religieuses ou philosophiques, l’appartenance syndicale, les données génétiques, biométriques, de santé…). De plus, le responsable de traitement doit s’assurer de la maîtrise du système algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la personne concernée, la manière dont le traitement a été mis en œuvre à son égard.
Surtout, depuis le 1er juillet 2020, la décision doit porter une mention explicite, sous peine de nullité. Ces décisions doivent donc comprendre quelques lignes expliquant les finalités du traitement, le rappel du droit de communication… En l’absence de cette mention explicite, les décisions concernées pourront être considérées comme nulles. En revanche, le seul fait pour l’administration de ne pas répondre à une demande d’explication d’un citoyen n’entraînera pas automatiquement une annulation de la décision. Il faudra en passer par le juge.
Cet article fait partie du Dossier
Politiques publiques : les algorithmes vont-ils prendre le pouvoir ?
Sommaire du dossier
- Nantes publie les premiers codes sources de ses algorithmes
- Les algorithmes vont-ils prendre le pouvoir ?
- Montréal veut identifier et limiter le plus possible les biais des algorithmes
- Algorithmes : une essentielle prise en compte de la dimension éthique
- A Valence-Romans, des places en crèche attribuées par un algorithme
- Algorithmes : un cadre transparent pour les citoyens désireux de s’informer
- « Pas d’algorithme sans corde de rappel humaine » – Axelle Lemaire
Domaines juridiques