L'ODJ Média




Intelligence artificielle et justice


Pour confier la justice à la machine, il faut qu’elle soit infaillible: c’est le socle de son autorité. Si elle venait à se tromper, n’est-ce pas tout le système judiciaire qui s’écroulerait et, partant, la confiance de la société dans la justice?



A lire ou à écouter en podcast :


Par Mustapha Sehimi

Un tremblement de terre: voilà la comparaison qui définit l’impact de l’intelligence artificielle (IA) sur notre quotidien, le fonctionnement de nos sociétés et même dans l’équilibre géopolitique du monde. L’IA est là pour de bon. Depuis la fin novembre 2022, force est de faire ce constat: ChatGPT a déboulé dans nos vies. Un outil conçu pour épauler l’Homme, mais qui le dépasse déjà dans sa capacité de calcul, de mémorisation ou encore dans sa représentation du monde.

Question de principe dans un domaine éminemment politique: l’IA consolide-t-elle ou non la justice et la démocratie? Plus précisément, qu’en est-il du fonctionnement de la justice? L’utilisation des algorithmes en matière judiciaire pourra-t-elle être «éthique». Il faut rappeler ici que la justice est rendue par des êtres humains: c’est une institution qui en assure l’équité.

Et les lois qui sont ainsi interprétées et appliquées prennent en compte la personnalité des justiciables, leur histoire, ainsi que les circonstances de la commission des actes incriminés. L’argument invoqué, ici et là, pour justifier l’utilisation de l’IA, est celui de la célérité, le gain de temps. Ce serait alors une justice automatisée, du «prêt-à-porter» industriel avec des décisions toutes faites, en somme... Mais le risque est évident: celui de la mise en équation, ou plutôt entre parenthèses, des principes généraux du droit et de la justice, dont celui en l’espèce du contradictoire.

Quelle jurisprudence peut être construite alors dans de telles conditions? Que deviendraient les voies de recours en appel et au niveau des cours suprêmes, baptisées officiellement comme telles, et qui veillent à afficher la supériorité du juge sur les autres producteurs de normes juridiques.

Cela dit, l’IA n’échappe pas à un biais: elle prend en effet appui sur des données produites par des êtres humains. Et si tous les tribunaux utilisaient une telle IA biaisée, n’est-ce pas tout le système judiciaire qui le deviendrait lui aussi de manière systématique? Le débat n’est pas académique, comme l’on pourrait le croire. Il a en effet connu ses premières applications. Celle du logiciel Compas (Correctional Offender Management Profiling for Alternative Sanctions) en est une parfaite illustration.

Cet outil est déjà utilisé dans les États de New York et de Californie. Il vise à prévenir pratiquement les risques de récidive d’un condamné, et ce, à partir de ses réponses à un questionnaire (lieu de résidence, âge, antécédents judiciaires et ceux de son entourage…). Or, ce système a conduit à des discriminations en stigmatisant les minorités noires et hispaniques. C’est dire que cela milite en faveur de l’encadrement des usages de l’IA dans le domaine de la justice, ainsi que de la nécessité de vérifier la validité de leurs résultats.

Pour confier la justice à la machine, il faut qu’elle soit infaillible: c’est le socle de son autorité. Si elle venait à se tromper, n’est-ce pas tout le système judiciaire qui s’écroulerait et, partant, la confiance de la société dans la justice? L’IA ne «vit» pas dans le monde réel des humains.

La justice ne doit pas être celle de la machine. Elle ne doit pas non plus être celle de l’émotion et de l’empathie; elle résulte de la sagesse, du discernement; elle cherche à comprendre avant de juger, de sorte que le jugement soit accepté par tous. La justice est avant tout une question d’histoires humaines individuelles. C’est dire s’il faut poser des limites pour définir une utilisation éclairée et «éthique» des algorithmes en matière judiciaire.

 

Comment? En veillant à se limiter à la collecte d’informations pour établir la véracité des faits, à rechercher les textes de loi applicables et les jurisprudences pertinentes, à accompagner aussi l’enquête. Les algorithmes ne doivent en aucun cas «fabriquer» un jugement, autrement dit, ne pas les laisser déterminer la culpabilité d’une personne, désigner un responsable, fixer une indemnité.

L’IA peut sans doute faciliter l’accès aux informations d’une peine, oui, mais avec un risque, celui de «déshumaniser» le droit. Un procès au tribunal comporte souvent des «zones grises» qui nécessitent toujours du discernement humain. La machine calcule. Elle peut au mieux produire et comparer des probabilités. Un autre registre relève du doute humain qui, lui, est une remise en question et un cheminement vers la vérité. C’est ce discernement humain du magistrat qui reste irremplaçable.

Le mécanisme de la justice, c’est de mettre toutes les parties d’accord sur la vérité judiciaire: c’est un fondement de la démocratie. Or, les systèmes d’IA générative -comme ChatGPT-, basés sur des corrélations statistiques, ne sont pas d’une grande fiabilité. Ils peuvent produire et véhiculer des contenus incluant à la fois des réalités avérées et vérifiées, des contre-vérités et des opinions en les combinant et en les mélangeant.

Le produit livré -ce que l’on appelle le «rendu»-, fait de certaines contre-vérités indiscernables, pose problème. Il ne permet pas de remonter à la source et de «tracer» les raisonnements de la machine. Cela nécessite donc une vérification a posteriori. Une menace grave pour une bonne administration de la justice. Et pour la démocratie…

Rédigé par Mustapha Sehimi sur Le 360



Mardi 27 Février 2024


Dans la même rubrique :
< >

Vendredi 22 Novembre 2024 - 12:44 L’Occident et le fascisme d’un genre nouveau

Chroniqueurs invités | Lifestyle | Breaking news | Portfolio | Room | L'ODJ Podcasts - 8éme jour | Les dernières émissions de L'ODJ TV | Communiqué de presse | Santé & Bien être | Sport | Culture & Loisir | Conso & Environnement | Digital & Tech | Eco Business | Auto-moto | Musiczone | Chroniques Vidéo | Chroniques Radio R212 | Bookcase | L'ODJ Média | Last Conférences & Reportages



Bannière Lodj DJ

Avertissement : Les textes publiés sous l’appellation « Quartier libre » ou « Chroniqueurs invités » ou “Coup de cœur” ou "Communiqué de presse" doivent être conformes à toutes les exigences mentionnées ci-dessous.

1-L’objectif de l’ODJ est de d’offrir un espace d’expression libre aux internautes en général et des confrères invités (avec leurs accords) sur des sujets de leur choix, pourvu que les textes présentés soient conformes à la charte de l’ODJ.

2-Cet espace est modéré  par les membres de la rédaction de lodj.ma, qui conjointement assureront la publication des tribunes et leur conformité à la charte de l’ODJ

3-L’ensemble des écrits publiés dans cette rubrique relève de l’entière responsabilité de leur(s) auteur(s).la rédaction de lodj.ma ne saurait être tenue responsable du contenu de ces tribunes.

4-Nous n’accepterons pas de publier des propos ayant un contenu diffamatoire, menaçant, abusif, obscène, ou tout autre contenu qui pourrait transgresser la loi.

5-Tout propos raciste, sexiste, ou portant atteinte à quelqu’un à cause de sa religion, son origine, son genre ou son orientation sexuelle ne sera pas retenu pour publication et sera refusé.

Toute forme de plagiat est également à proscrire.

 










Rubrique à la Une

Publicité









Revue de presse


Inscription à la newsletter

Plus d'informations sur cette page : https://www.lodj.ma/CGU_a46.html