Pour Ă©viter que les algorithmes utilisĂ©s dans le cadre de services publics ne produisent des rĂ©sultats incomprĂ©hensibles, dont le fonctionnement Ă©chapperait totalement au regard des citoyens, des garanties ont Ă©tĂ© apportĂ©es par la loi du 7 octobre 2016 pour une RĂ©publique numĂ©rique. L’objectif Ă©tant que l’administrĂ© puisse comprendre le fonctionnement de l’algorithme employĂ© pour traiter son dossier.
Première obligation : faire figurer une mention explicite sur les documents publics informant les administrĂ©s de la dĂ©cision prise Ă leur Ă©gard. Cette mention doit notamment contenir les finalitĂ©s du traitement. Les administrations doivent aussi fournir Ă l’administrĂ©, lorsqu’il en fait la demande, diverses informations : le degrĂ© de contribution de l’algorithme, les donnĂ©es traitĂ©es… Les plus grandes collectivitĂ©s (de plus de 3 500 hab. et d’au moins 50 Ă©quivalents – temps plein) ont mĂŞme une obligation d’information gĂ©nĂ©rale, en publiant les règles qui dĂ©finissent leurs principaux algorithmes.
Enfin, lorsqu’un citoyen en fait la demande, l’administration doit lui communiquer le code source de l’algorithme.
Dans un guide publiĂ© en 2019, la mission Etalab justifiait ces mesures : « Les algorithmes publics sont des formes de l’action publique et sont soumis Ă une exigence de redevabilitĂ©. Les administrations qui utilisent des algorithmes doivent rendre des comptes de leur utilisation. »
Nécessaire mais pas suffisant
Pour Marina Teller, professeure de droit Ă l’universitĂ© CĂ´te d’Azur, la transparence est indispensable, mais pas suffisante : « Structurellement, un algorithme efficace reste une boĂ®te noire. On n’arrivera jamais Ă dĂ©montrer avec certitude qu’un algorithme ne s’est pas trompĂ©. Il faut mettre en place une gouvernance qui rĂ©alise un travail contradictoire afin de limiter les risques d’erreurs. »
Limiter les risques, c’est aussi le travail des dĂ©lĂ©guĂ©s Ă la protection des donnĂ©es. « Plusieurs obligations dĂ©coulent du règlement gĂ©nĂ©ral Ă la protection des donnĂ©es, indique RĂ©gis Chatellier, chargĂ© d’Ă©tudes prospectives Ă la Cnil. Il y a notamment une obligation de minimisation des donnĂ©es et une obligation de recours Ă une analyse d’impact en amont de la mise en Ĺ“uvre d’un algorithme. »
Selon un rapport des Ă©lèves de l’Ena, ce nouveau cadre juridique est vu par les administrations « comme une tâche d’une ampleur incompatible avec les moyens disponibles ». Et il n’est pas sĂ»r que cela Ă©volue rapidement. A l’exception des dĂ©cisions 100 % automatisĂ©es (lire ci-contre), rien n’indique qu’une dĂ©cision qui ne respecterait pas ces obligations soit annulĂ©e par le juge.
Autorisation des décisions 100% automatiques
NouveautĂ© ! DĂ©sormais, en application du règlement gĂ©nĂ©ral pour la protection des donnĂ©es, une dĂ©cision administrative produisant des effets Ă l’Ă©gard d’une personne peut ĂŞtre prise sur le seul fondement d’un traitement algorithmique, sans qu’il y ait d’intervention humaine. Toutefois, la mesure est soumise Ă conditions.
Ces dĂ©cisions 100 % automatiques ne doivent pas se baser sur des donnĂ©es sensibles (informations sur l’origine raciale, les opinions politiques, les convictions religieuses ou philosophiques, l’appartenance syndicale, les donnĂ©es gĂ©nĂ©tiques, biomĂ©triques, de santĂ©…). De plus, le responsable de traitement doit s’assurer de la maĂ®trise du système algorithmique et de ses Ă©volutions afin de pouvoir expliquer, en dĂ©tail et sous une forme intelligible, Ă la personne concernĂ©e, la manière dont le traitement a Ă©tĂ© mis en Ĺ“uvre Ă son Ă©gard.
Surtout, depuis le 1er juillet 2020, la dĂ©cision doit porter une mention explicite, sous peine de nullitĂ©. Ces dĂ©cisions doivent donc comprendre quelques lignes expliquant les finalitĂ©s du traitement, le rappel du droit de communication… En l’absence de cette mention explicite, les dĂ©cisions concernĂ©es pourront ĂŞtre considĂ©rĂ©es comme nulles. En revanche, le seul fait pour l’administration de ne pas rĂ©pondre Ă une demande d’explication d’un citoyen n’entraĂ®nera pas automatiquement une annulation de la dĂ©cision. Il faudra en passer par le juge.
Cet article fait partie du Dossier
Politiques publiques : les algorithmes vont-ils prendre le pouvoir ?
Sommaire du dossier
- Les algorithmes vont-ils prendre le pouvoir ?
- Intelligence artificielle : des usages qui questionnent mais amenés à se développer
- Nantes publie les premiers codes sources de ses algorithmes
- Montréal veut identifier et limiter le plus possible les biais des algorithmes
- Algorithmes : une essentielle prise en compte de la dimension éthique
- A Valence-Romans, des places en crèche attribuées par un algorithme
- Algorithmes : un cadre transparent pour les citoyens dĂ©sireux de s’informer
- « Pas d’algorithme sans corde de rappel humaine » – Axelle Lemaire
- « Les juges, policiers et avocats vont devoir s’approprier la justice algorithmisĂ©e »
Domaines juridiques








