« Des expressions étranges, un portugais négligent et des citations d’articles qui n’existent pas dans la loi » : voilà ce qui a éveillé les soupçons quant à une décision rendue par la Cour d’Appel de Lisbonne, au Portugal. Il semblerait que trois juges aient rédigé leur jugement à l’aide d’un outil d’intelligence artificielle (IA) tel que ChatGPT. Une requête a été déposée par les avocats de la défense.
On a vendu l’intégration de l’intelligence artificielle dans le domaine juridique comme un gain de temps et d’efficacité, l’accès à l’information et donc la prise de décision étant décuplés. Mais les risques sont bien inhérents, tant dans les erreurs potentielles de l’outil en tant que tel, que dans les abus des personnes qui le manient.
La Cour d’appel a peut-être qualifié cette allégation de « totalement déraisonnable » et le Conseil supérieur de la magistrature (CSM) affirme n’avoir encore reçu aucune plainte. Reste que l’affaire se retrouve à flotter dans un vide juridique malencontreux qui pourrait servir à la défense.
Trois juges de la Cour = trois robots judiciaires ?
Il ne s’agit pas d’un petit procès puisque cette affaire met en cause l’ancien député du Parti social-démocrate Helena Lopes da Costa, ainsi que Davide Amado, ancien président socialiste du conseil de Lisbonne et huit autres personnes. Ils sont accusés d’avoir escroqué la Santa Casa da Misericórdia de Lisboa (l’hôpital public) d’un million d’euros.
En février de cette année, le juge avait statué qu’il n’y aurait pas de procès. Mais le ministère public a fait appel et la Cour d’appel de Lisbonne a statué en sa faveur. C’est précisément le jugement rendue par cette dernière qui est cible de tous les soupçons.
De bout en bout, le texte présente de telles « bizarreries » selon les avocats de la défense, qu’ils ont déclaré au quotidien portugais Correio da Manhã : « Pour l’observateur moyen, le document présente diverses ressemblances avec un texte généré par l’intelligence artificielle ou un autre outil de nature informatique ou numérique », tel que ChatGPT.
« La loi susmentionnée n’existe pas. La jurisprudence non plus. »
D’abord, le texte surprend par l’utilisation d’expressions assez rarement usitées dans les textes des décisions de justice habituelles telles que « doctrine pénale », « Code pénal portugais », « jurisprudence de la Cour suprême de justice ». Dans la partie du texte réservée à l’analyse du cas concret, également, les juges ne détaillent pas une seule fois le comportement des accusés, se limitant à des considérations générales sur les crimes en question.
Il y a des références à une jurisprudence « qui n’existe pas » selon les avocats : « Sur les 14 arrêts cités dans le texte, 12 d’entre eux (…) n’existent pas dans les bases de données internes des juridictions supérieures respectives. » Sont évoqués des délits pour lesquels les accusés n’ont pas été inculpés par le ministère public, comme le délit d’abus d’autorité.
Mieux : il est fait mention d’un délit de participation économique à l’entreprise, dont la formulation « ne trouve pas la moindre correspondance dans la loi – ni dans la loi portugaise, ni, il faut bien le dire, dans aucune autre ».
Pour les avocats de la défense c’est clair : le jugement « va au-delà des limites de l’imaginable. (…) Nous ne pouvons être qu’en présence d’une faille gigantesque et flagrante, peut-être de nature informatique et assimilée ». Après avoir contesté dans une requête, auprès des trois juges, la validité du jugement, ils ont donc réclamé l’annulation de la décision, ainsi que celle, subséquente, de la tenue du procès.
L’IA en question dans la justice au Portugal – mais pas seulement
Ce qui n’est pas rien dans un tel procès. Maintenant, les questions sont multiples : tout d’abord, les juges peuvent-ils être « soupçonnés de tricherie », comme l’a écrit Correio da Manhã ?
Le CSM note bien, selon le quotidien en ligne l’Observateur, que « les décisions judiciaires sont susceptibles de contrôle dans les conditions juridiques prévues par le code de procédure civile ou pénale, en fonction de l’affaire en cause et des désaccords appréciés par les juridictions compétentes ». Mais il admet qu’il n’y a pas « de décision spécifique sur l’utilisation des outils d’intelligence artificielle par les magistrats judiciaires » et que « les juges jouissent de l’indépendance et de l’autonomie dans l’exercice de leurs fonctions judiciaires, y compris dans le choix des sources qu’ils utilisent pour documenter et étayer leurs décisions ».
Un jugement pourrait-il être rendu caduque si l’IA, utilisée comme outil, ne remplit pas son office et produit un texte non conforme ? Et conforme jusqu’où ? Qui tranchera ? Une telle mécanique pourrait se révéler aussi un bon galop d’essai pour enrayer, d’une toute nouvelle manière, une procédure judiciaire.
Si les occurrences de ce genre de cas ne sont pas encore courantes, elles commencent à surgir, comme on l’a vu au Brésil, il y a un an, quand un juge s’est trouvé sommé de s’expliquer sur sa sentence truffée d’erreurs : le magistrat avait avoué avoir confié son élaboration à un « collaborateur de confiance » qui s’était aidé de l’outil ChatGPT.
« L’utilisation de l’IA dans la justice comporte des risques, tels que les biais algorithmiques, la protection de la vie privée et la transparence des décisions. Il est essentiel de mettre en place des réglementations et des mécanismes de supervision pour atténuer ces risques », dit ChapGPT lui-même.
On n’est pas près de s’ennuyer avec la justice artificielle.