Le tribunal de district de Rotterdam a fait appel à l’intelligence artificielle (IA) pour assister à la rédaction des motifs de condamnation d’un jugement pénal. L’utilisation de l’IA a été limitée à cette seule section de la décision et visait à faciliter l’exposé du raisonnement aboutissant à une condamnation, sans participer pour autant au processus décisionnel lui-même, selon le site des cours et tribunaux néerlandais, De Rechtspraak. Il n’empêche : ce type d’« externalisation » dans une matière aussi grave que la condamnation pénale d’un être humain pose des questions de fond. Est-on prêt à faire confiance à la machine pour en arriver à une forme de mécanisation de la justice ?
De Rechstspraak souligne que les juges pénaux et le greffier ont eu recours à l’IA pour les aider à rédiger la motivation de la décision et en ont informé les intéressés avant de publier un communiqué de presse à ce sujet. Et assure que la « confidentialité et l’intégrité de la procédure pénale ont été mises au premier plan » : aucune donnée permettant d’identifier les personnes, les faits, ou le cas d’espèce n’a été fournie au logiciel d’IA.
Un tribunal néerlandais commence à jouer avec l’IA
Les juges et le greffier ont ensuite « soigneusement évalué et sélectionné » les suggestions faites par l’IA, fondées sur de brèves informations qui lui avaient été fournies quant aux circonstances générales de l’affaire, le greffier se chargeant, selon l’habitude, de proposer un document « concept » qui a été ensuite « adapté à la motivation définitive » par les magistrats. L’IA « n’a pris aucune décision et n’en a préparé aucune, et n’a pas proposé de considérations ».
A quoi cela a-t-il donc servi de la mobiliser ? Selon De Reschtspraak, les différents rédacteurs du jugement se sont montrés « enthousiastes » au vu des résultats de cette « coopération avec la technologie » : elle a permis un « gain de temps » et que la rédaction soit « clairement structurée et organisée ». Mais ils soulignent que l’expérience ne sera pas souvent renouvelée, notamment en raison des soucis de confidentialité qui font que l’on ne peut pas donner tous les détails d’une affaire à une IA publique, sans compter les « complications juridiques et éthiques » qui pourrait faire suite à un partage d’informations trop précoce avec l’IA.
Un jugement rédigé par l’IA
On les voit venir… De fait, il est aussitôt suggéré de développer un système d’intelligence artificielle spécialement conçu pour les besoins de la justice et capable de ce fait d’intégrer des données confidentielles dans une « banque fermée et sécurisée », parmi lesquelles l’ensemble des jugements de condamnations publiés, de manière à pouvoir fournir l’ensemble des informations d’un cas d’espèce et de permettre la rédaction de motivations-type « très exploitables ».
A partir de là, l’utilisation en soutien de l’IA pourrait même s’étendre à d’autres éléments des jugements pénaux, assure l’article.
Et c’est ainsi qu’en protestant d’une volonté de respecter les individus et de ne pas risquer de divulguer des données sensibles on s’oriente petit à petit vers une utilisation plus soutenue de l’intelligence artificielle dans l’application de la justice – forcément de plus en plus figée par la jurisprudence, que celle-ci soit juste ou non. L’IA elle-même n’est pas infaillible, loin s’en faut, y compris dans la restitution des faits.
Mais elle séduit même ceux qui verront leurs emplois menacés par son omniprésence. En arrivera-t-on un jour dans les tribunaux à une solution IA quasi médicale : du diagnostic à la prescription ?