La justice britannique dit oui à ChatGPT, pour résumer les rapports – en dépit des erreurs de l’IA

justice britannique ChatGPT erreurs
 

Les juges pourront utiliser l’« agent conversationnel » ChatGPT pour rédiger des décisions de justice, c’est ce qui vient d’être décidé outre-Manche. Le ministère de la Justice britannique a publié des directives officielles pour l’Angleterre et le Pays de Galles, affirmant que l’IA peut être utile pour résumer de grandes quantités de texte ou pour des tâches administratives. Mais à regarder les dernières performances, faiblardes, de GPT4, le modèle d’intelligence artificielle d’Open AI et surtout les fabuleuses bévues judiciaires où ChatGPT est tout bonnement allé jusqu’à inventer des procès qui n’ont jamais eu lieu et de faux éléments de jurisprudence, il y a de quoi se poser de sérieuses questions.

 

Accueillir l’IA mais pas ses erreurs ?

Sir Geoffrey Vos, le maître des rôles, a déclaré qu’il fallait se mettre à l’IA en quelque sorte, poussant une vieille profession débordée à le faire, ou avalisant au contraire une pratique déjà répandue… En septembre, un juge de haut rang avait avoué qu’il avait utilisé ChatGPT pour résumer un domaine du droit qu’il connaissait bien, et l’avait copié-collé dans une décision de justice, ce qu’il avait trouvé « très utile ». Il s’est empressé de déclarer, lundi, qu’il l’avait utilisé bien sûr comme test et conformément aux directives, n’y ayant entré aucune information secrète ou confidentielle.

Car ChatGPT a un « grand potentiel » selon lui. Et pour Sir Geoffrey Vos, l’IA « offre des opportunités significatives pour développer un système de justice numérique meilleur, plus rapide et plus rentable ».

Mais (et les « mais » arrivent bien vite) il estime qu’il faut néanmoins se méfier, que le chatbot est un « mauvais moyen de mener des recherches ». « La technologie ne fera que progresser et le pouvoir judiciaire doit comprendre ce qui se passe. Les juges, comme tout le monde, doivent être parfaitement conscients du fait que l’IA peut donner des réponses aussi bien inexactes que précises. »

D’autre part, côté public, la montée en puissance de ces robots pourrait finir par être largement utilisée pour engager des poursuites judiciaires, sans compter la technologie deepfake (technique de synthèse d’image humaine basée sur l’intelligence artificielle pour combiner et superposer des images et des vidéos existantes sur d’autres images) pour créer de fausses preuves.

 

De la tendance de ChatGPT à inventer du fictif

L’IA engendre du faux. Ses modèles linguistiques écrivent, en effet, des phrases en prédisant une série de mots sur la base d’énormes quantités de textes sur lesquels ils ont été « formés », ce qui signifie qu’ils sont enclins à inventer des faits.

Une affaire rocambolesque a récemment défié les chroniques judiciaires américaines. Deux avocats new-yorkais qui défendaient un client à propos d’un accident dans un aéroport international avaient soumis un mémoire de dix pages contenant un certain nombre de décisions de justice pertinentes. Mais six affaires citées n’avaient jamais existé ! Ils ont été condamnés à une amende pour avoir utilisé de fausses citations de cas générées par ChatGPT, déclenchant un débat sur le « problème d’hallucination » de l’outil.

Mais le problème n’est pas tant celui-là que la responsabilité permanente de l’avocat pour qui « les règles existantes imposent un rôle de contrôle pour garantir l’exactitude de leurs dossiers », comme l’a souligné le juge qui les condamnait. « Les titulaires de fonctions judiciaires sont personnellement responsables du matériel produit en leur nom » et potentiellement soumis à des sanctions pénales s’il y a production de fausses preuves.

 

La justice britannique, mais pas seulement, bientôt remplacée

Pourtant, éminent paradoxe, si l’on en croit le tableau édité par The Telegraph estimant la probabilité de disparition des professions susceptibles d’être remplacées par l’IA, tous ces métiers juridiques figurent en très bonne place. Les juges caracolent au rang 21, et les avocats au rang 77 – ce qui les présente comme particulièrement vulnérables parmi l’ensemble des 365 professions représentées.

Une prédiction que les analystes experts de la banque Goldman Sachs opéraient également en mars dernier.

Mais alors, cela adviendra-t-il quand l’IA sera parfaitement sûre ? On est en droit de douter que ce moment arrive un jour. Le modèle très avancé d’OpenAI, GPT4, continue de connaître des complications techniques problématiques. Il a peut-être participé au test de Turing en atteignant, tout comme ChatGPT, une proximité maximale de 41 % avec le comportement humain, ce qui indique des progrès significatifs dans l’imitation des interactions humaines. Mais ses utilisateurs ont signalé qu’il semble être « plus paresseux » et affiche des comportements imprévisibles…

Rien n’est moins certain que le contrôle absolu de cette technologie dont les capacités dépassent l’entendement humain. Son pouvoir potentiel n’en finit pas, lui, de fasciner.

 

Clémentine Jallais