L’IA favorise le délire, et les psychiatres restent démunis

IA favorise délire psychiatres
 

Alors qu’un nombre croissant de patients débarque actuellement dans des services psychiatriques manifestant des croyances dangereuses ou des illusions grandioses, on constate un facteur commun à cette nouvelle affection pas encore clairement définie : des conversations interminables avec des robots. Les chatbots fonctionnant à l’intelligence artificielle apparaissent comme la chose qui a poussé ces personnes vers le délire ou la paranoïa. L’IA apparaît ainsi comme responsable de ces épisodes psychotiques. Un psychiatre de San Francisco, Keith Sakata, a compté cette année une douzaine de cas où l’hospitalisation du patient a été nécessaire.

Est-ce à dire qu’on est en face d’une véritable « psychose IA » ? Cette nomenclature volontiers employée par les médias est discutée par les spécialistes. On sent une hésitation à incriminer l’intelligence artificielle qui s’impose partout à coups de milliards de dollars d’investissements…

Le débat porte sur le fait de savoir si l’IA est capable seule de déclencher des épisodes psychotiques, ou si elle ne fait que faciliter le passage à l’acte ou au délire d’un sujet déjà vulnérable dans ce domaine.

 

Les psychiatres ne savent pas trop qualifier les délires IA

Mais les faits sont là. Des utilisateurs des grands modèles de langage, ou leurs proches, font état de « spirales » où s’enfoncent les victimes, avec, à la clef, des pertes d’emploi, des ruptures, des hospitalisations involontaires, des peines de prison et même des morts – voir à ce sujet l’article de Clémentine Jallais sur des suicides induits par ChatGPT. La discussion a certainement son intérêt pour les professionnels qui soignent les maladies mentales – dans un article de Wired, Sakata parle d’ailleurs d’un raccourci commode pour évoquer un vrai phénomène, tout en craignant qu’on ne simplifie à l’excès des symptômes psychiatriques complexes. Mais cet arbre ne doit pas cacher la forêt de problèmes qui va de pair avec les conversations avec une intelligence artificielle. A l’évidence, celle-ci n’est pas bienfaisante et elle n’a pas été fabriquée pour l’être.

Selon James McCabe, professeur d’études des psychoses au King’s College de Londres, les cas de psychoses IA sont presque entièrement centrés sur les idées délirantes, sans les psychoses : « des croyances fortes mais fausses qu’il est impossible de dissiper en présentant des preuves contraires ». Derrière les mots, il y a cependant un fait gravissime : la disparition progressive dans de nombreux esprits de la notion de vérité, tendance encore accentuée à grande échelle par la possibilité de falsifier à peu près n’importe quoi avec l’IA, à tel point que même la vérification des documents est devenue ardue et incertaine.

 

L’IA favorise les psychoses sous-jacentes

Les experts invoqués par l’article sont en tout cas d’accord sur une chose: les grands modèles d’IA exploitent la tendance humaine à l’anthropomorphisme. Autrement dit, on pousse l’utilisateur à croire qu’il discute avec quelqu’un et les robots répondent d’ailleurs sur le ton de la conversation. Ils sont généralement programmés pour donner raison à l’interlocuteur en renforçant les croyances, même les plus folles, de ceux qui se révèlent particulièrement dangereux pour les plus vulnérables. Tout cela pour le garder en ligne le plus longtemps possible, notamment en vue nourrir les « connaissances » psychologiques de l’IA, exploitables à des fins de marketing.

Mais que l’intelligence artificielle soit un déclencheur de problèmes sous-jacents, ou une technologie qui permet d’altérer l’état mental, il est clair que c’est une technologie à haut risque. Mais il tout aussi évident que les garde-fous ne sont pas en place pour protéger les utilisateurs, pas plus que les psychiatres ne sont armés face à ces alter ego pousse-au-crime.

Face à cette démultiplication du mensonge et de la mort par interlocuteur virtuel interposé, les psychiatres suffisent-ils ? L’IA ne craint pas de pousser au mal, on le voit de plus en plus. Que ses concepteurs l’aient voulu ou non, elle est devenue un instrument de tentation, trop souvent « aligné », comme ils disent… sur la culture de mort.

 

Jeanne Smits