Qu’appelez-vous justice algorithmisée, et quelle différence avec la justice prédictive ?
Les usages des algorithmes dans le domaine de la justice sont de plus en plus fréquents. Le terme de justice algorithmisée exprime concrètement ce qui est fait : faire fonctionner, assister ou éclairer une partie de la justice par l’exécution d’algorithmes. Le terme prédictif nous détourne de ce qui est fait en pratique, c’est-à-dire évaluer et estimer des peines, des indemnités, ou encore des risques de récidives, et non les prédire. Nous devons rester vigilants à ne pas percevoir l’intelligence artificielle comme un oracle qui satisferait de facto à l’exigence d’exactitude, d’objectivation de faits ou de rapport à la vérité.
Nous avons publié un rapport car nous pensons qu’il faut une traduction intelligible de ce qui se fait, des opportunités et des risques liés à l’application de l’algorithmique à la justice. Les mécanismes qui prévalent dans l’application d’une technologie doivent être explicités pour éclairer la décision publique et les citoyens. Nous espérons qu’il servira au dialogue entre chercheurs et concepteurs de la technologie, et entre citoyens et décideurs publics.
La justice administrative est-elle concernée ?
Bien sûr ! Depuis la loi du 7 octobre 2016 pour une République numérique, les collectivités territoriales de plus de 3 500 habitants doivent rendre leurs données ouvertes (open data). Cette décision va contribuer à entraîner davantage et mieux les algorithmes et faire grandir la justice algorithmisée. Par ailleurs, depuis cette même loi, les codes sources des algorithmes utilisés par l’administration doivent être communiqués. Et enfin, les décisions individuelles qui sont prises à partir d’un traitement algorithmique doivent être signalées au citoyen par une mention explicite.
Quels en sont les bons côtés ?
Elle permet d’éclairer davantage les acteurs de la justice sur leurs décisions et leurs appréciations d’une affaire. Ces outils peuvent aussi permettre de fournir encore plus de transparence au fonctionnement de la justice. Couplée aux politiques d’ouverture des données et de science ouverte, l’IA – dont la force est de trouver des corrélations dans des jeux de données complexes et très volumineux – permet d’aider les juristes sur certaines tâches précises comme la recherche d’informations dans des corpus de documents.
Quels sont les risques, biais et dangers ?
Cela étant dit, les risques existent. L’outil PredPol, présenté dans notre note, déterminait à Los Angeles les zones à patrouiller dans lesquelles les risques de crimes étaient identifiés comme élevés par l’algorithme. Par ces outils, les patrouilles de police stigmatisaient des populations comme les afro-americains ou les hispaniques, en transformant une tendance statistique en une condition systématique. Un autre risque réside dans l’utilisation de ces outils par des acteurs de la justice non éclairés technologiquement et scientifiquement. Les juges, les policiers ou encore les avocats vont devoir s’approprier cette discipline pour pouvoir maîtriser les outils, et pour pouvoir alerter en cas de risque de biais ou de discrimination algorithmique.
Notons que l’utilisation de l’IA dans la justice est classée à haut risque par la nouvelle proposition de régulation de l’IA par la Commission Européenne. Les systèmes d’IA destinés à assister une autorité judiciaire dans la recherche et l’interprétation des faits et du droit sont soumis à des audits de conformité très exigeants avant d’être déployés, et à des audits de monitoring durant tout le temps de leur d’utilisation.
Cet article fait partie du Dossier
Politiques publiques : les algorithmes vont-ils prendre le pouvoir ?
9 / 9
Sommaire du dossier
- Intelligence artificielle : des usages qui questionnent mais amenés à se développer
- Nantes publie les premiers codes sources de ses algorithmes
- Les algorithmes vont-ils prendre le pouvoir ?
- Montréal veut identifier et limiter le plus possible les biais des algorithmes
- Algorithmes : une essentielle prise en compte de la dimension éthique
- A Valence-Romans, des places en crèche attribuées par un algorithme
- Algorithmes : un cadre transparent pour les citoyens désireux de s’informer
- « Pas d’algorithme sans corde de rappel humaine » – Axelle Lemaire
- « Les juges, policiers et avocats vont devoir s’approprier la justice algorithmisée »
Domaines juridiques