Fermer

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Menu

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Intelligence artificielle

« Les juges, policiers et avocats vont devoir s’approprier la justice algorithmisée »

Publié le 21/07/2021 • Par Gabriel Zignani • dans : Actu juridique, France

Actualités juridiques
grapestock - stock.adobe.com
Aurélie Jean (docteure en sciences), Adrien Basdevant (avocat en droit public et en droit numérique) et Victor Storchan (ingénieur en intelligence artificielle dans l'industrie) reviennent pour la Gazette sur l'utilisation de plus en plus fréquente des algorithmes dans la justice. Ils sont les auteurs d'un rapport "Mécanisme d'une justice algorithmisée" publié par la Fondation Jean Jaurès le 22 juin dernier.

Ma Gazette

Sélectionnez vos thèmes et créez votre newsletter personnalisée

Qu’appelez-vous justice algorithmisée, et quelle différence avec la justice prédictive ?

Les usages des algorithmes dans le domaine de la justice sont de plus en plus fréquents. Le terme de justice algorithmisée exprime concrètement ce qui est fait : faire fonctionner, assister ou éclairer une partie de la justice par l’exécution d’algorithmes. Le terme prédictif nous détourne de ce qui est fait en pratique, c’est-à-dire évaluer et estimer des peines, des indemnités, ou encore des risques de récidives, et non les prédire. Nous devons rester vigilants à ne pas percevoir l’intelligence artificielle comme un oracle qui satisferait de facto à l’exigence d’exactitude, d’objectivation de faits ou de rapport à la vérité.

Nous avons publié un rapport car nous pensons qu’il faut une traduction intelligible de ce qui se fait, des opportunités et des risques liés à l’application de l’algorithmique à la justice. Les mécanismes qui prévalent dans l’application d’une technologie doivent être explicités pour éclairer la décision publique et les citoyens. Nous espérons qu’il servira au dialogue entre chercheurs et concepteurs de la technologie, et entre citoyens et décideurs publics.

La justice administrative est-elle concernée ?

Bien sûr ! Depuis la loi du 7 octobre 2016 pour une République numérique, les collectivités territoriales de plus de 3 500 habitants doivent rendre leurs données ouvertes (open data). Cette décision va contribuer à entraîner davantage et mieux les algorithmes et faire grandir la justice algorithmisée. Par ailleurs, depuis cette même loi, les codes sources des algorithmes utilisés par l’administration doivent être communiqués. Et enfin, les décisions individuelles qui sont prises à partir d’un traitement algorithmique doivent être signalées au citoyen par une mention explicite.

Quels en sont les bons côtés ?

Elle permet d’éclairer davantage les acteurs de la justice sur leurs décisions et leurs appréciations d’une affaire. Ces outils peuvent aussi permettre de fournir encore plus de transparence au fonctionnement de la justice. Couplée aux politiques d’ouverture des données et de science ouverte, l’IA – dont la force est de trouver des corrélations dans des jeux de données complexes et très volumineux – permet d’aider les juristes sur certaines tâches précises comme la recherche d’informations dans des corpus de documents.

Quels sont les risques, biais et dangers ?

Cela étant dit, les risques existent. L’outil PredPol, présenté dans notre note, déterminait à Los Angeles les zones à patrouiller dans lesquelles les risques de crimes étaient identifiés comme élevés par l’algorithme. Par ces outils, les patrouilles de police stigmatisaient des populations comme les afro-americains ou les hispaniques, en transformant une tendance statistique en une condition systématique. Un autre risque réside dans l’utilisation de ces outils par des acteurs de la justice non éclairés technologiquement et scientifiquement. Les juges, les policiers ou encore les avocats vont devoir s’approprier cette discipline pour pouvoir maîtriser les outils, et pour pouvoir alerter en cas de risque de biais ou de discrimination algorithmique.

Notons que l’utilisation de l’IA dans la justice est classée à haut risque par la nouvelle proposition de régulation de l’IA par la Commission Européenne. Les systèmes d’IA destinés à assister une autorité judiciaire dans la recherche et l’interprétation des faits et du droit sont soumis à des audits de conformité très exigeants avant d’être déployés, et à des audits de monitoring durant tout le temps de leur d’utilisation.

Domaines juridiques

Réagir à cet article
marche online

Aujourd'hui sur les clubs experts gazette

Nos services

Prépa concours

CAP

Évènements

Gazette

Formations

Gazette

Commentaires

« Les juges, policiers et avocats vont devoir s’approprier la justice algorithmisée »

Votre e-mail ne sera pas publié

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement