Et maintenant, aux Etats-Unis, l’intelligence artificielle (AI) pour décider de la liberté provisoire !

liberté provisoire intelligence artificielle Etats Unis AI
 
Longtemps régie aux Etats-Unis par le régime de la libération sous caution, la remise en liberté provisoire des personnes en attente d’un procès pénal est dénoncée comme étant à la fois une loterie, puisqu’elle dépend de l’appréciation du juge, et un privilège de riches, puisque la somme à verser – également laissée à la libre appréciation du juge – dépasse le plus souvent les capacités des plus pauvres. Mais de là à laisser déterminer l’opportunité d’une libération conditionnelle par un algorithme, il y a un pas. On n’y est pas encore tout à fait mais dans plusieurs Etats américains, comme le New Jersey, l’Arizona, le Kentucky, l’Ohio et l’Alaska les juges se tournent désormais vers l’intelligence artificielle (AI) pour évaluer les risques de délinquance ou de non présence aux rendez-vous judiciaires.
 
On ne sera pas étonné d’apprendre qu’un des avantages avancés pour faire adopter cette pratique est celui de l’évitement des pratiques « racistes », puisque les juges sont volontiers accusés de prendre leurs décisions de liberté provisoire en fonction de la couleur de peau, du sexe, voire de l’habillement du suspect qu’ils ont devant eux.
 

L’intelligence artificielle risque de se substituer à l’appréciation des juges

 
L’algorithme utilisé a été développé par la Laura and John Arnold Foundation de Houston : il repose sur neuf facteurs de risque qui permettent, selon ses concepteurs, d’évaluer les comportements futurs de la personne appréhendée, en tenant compte par exemple de son âge et de ses condamnations antérieures. La race, le sexe, l’histoire professionnelle, le lieu d’habitation n’entrent pas dans le calcul, pas plus que les éventuelles arrestations antérieures qui pourraient jouer contre l’accusé même s’il ne s’est pas révélé coupable à ces occasions.
 
Selon la fondation Arnold, l’algorithme est parfaitement transparent (même si les données individuelles ce ne sont pas accessibles au public) et n’empêche pas les magistrats de prendre la décision de manière personnelle. Le juge Ronald Adrine du tribunal municipal de Cleveland est d’accord : « Il ne s’agit pas d’un automate dans lequel on rentre un ticket et qui vous crache une décision sur la forme de liberté sous caution à prononcer. » Le score algorithmique, estime-t-il n’est qu’une des données dont le juge va tenir compte pour prendre sa décision.
 
Pas si sûr. Selon Bernard Harcourt, professeur de droit et de sciences politiques à Columbia, la recherche a démontré que les êtres humains ont tendance à suivre les directives consultatives spécifiques plutôt que de faire confiance à leur propre jugement : « Il est naïf de penser qu’on ne va tout simplement pas s’y fier. »
 

Faire confiance à l’AI pour décider d’une liberté provisoire : aux Etats-Unis, on en est déjà là

 
L’International Business Times donne quant à lui l’exemple d’un jeune Noir qui a bénéficié du recours à l’intelligence artificielle lorsqu’il a été arrêté en possession d’un petit sachet de cocaïne. C’était fin août : Hercules Shepherd, 18 ans, espérait entrer à l’université grâce à ses talents de basketteur qui pouvaient lui valoir une importante bourse lui permettant de poursuivre des études d’ingénieur. S’il devait manquer l’école pour cause de détention provisoire, ne serait-ce que quelques jours, ses chances se seraient envolées. Voilà des éléments qui pouvaient d’ailleurs guider la décision « humaine » du magistrat…
 
Dans les faits le juge s’est fié au score de risque du jeune homme : une chance sur six de ne pas se présenter à l’audience, deux chances sur six de commettre un nouveau délit. Shepherd a été libéré sous caution pour une somme modique.
 
Peut-être saura-t-on un jour ce qu’il est advenu d’Hercules Shepherd : star du basket, ingénieur talentueux, trafiquant de cocaïne ? Ce n’est certes pas un ordinateur qui peut le prévoir. Tout au plus peut-on affirmer dès maintenant que l’intelligence artificielle pourra un jour être utilisée comme outil de discrimination positive…
 

Anne Dolhein