Les chatbots IA de plus en plus clairement liés à des psychoses

chatbots IA liés psychoses
 

En l’espace de trois ans, les grands modèles de langage produits par diverses sociétés ont totalement envahi l’environnement digital. Rares sont aujourd’hui les jeunes qui n’ont pas au moins fait des expériences avec ChatGPT d’OpenAI), Grok ou quelque autre. Alors que les dérapages se multiplient, allant même jusqu’au meurtre « accompagné » par un chatbot, les psychiatres constatent de plus en plus de psychoses. Sans en avoir identifié exactement la nature, de nombreuses études en perçoivent bel et bien l’existence depuis l’irruption de l’intelligence artificielle, l’IA, dans la vie quotidienne.

OpenAI signale ainsi que 0,07 de ses utilisateurs manifestent des signes possibles de problèmes urgents liés à une manie ou une psychose. Trois fois rien ? Rapporté au nombre total d’« interlocuteurs » hebdomadaires actifs du chatbot, soit 800 millions de personnes, cela représente 560.000 cas. Voilà qui donne une idée des dégâts potentiels, d’autant que nous ne sommes qu’aux débuts de ces conversations virtuelles. Conversations qui, soit dit en passant, sont répertoriées et conservées quelque part, forcément : on se met désormais à nu de toutes les façons imaginables face à Big Brother…

 

Les robots IA sont liés à des psychoses, qu’il les causent ou qu’ils les révèlent

La dernière discussion en date des psychiatres, rapportée par le Wall Sreet Journal, rassemble les données que ceux-ci ont rassemblées en épluchant les dossiers de dizaines de leurs patients dont ils soupçonnent de trouble mental d’être en lien avec l’utilisation de robots IA, puisqu’il s’était manifesté à la suite de longues conversations avec ChatGPT ou autres.

Plusieurs de ces cas, notamment lorsque le trouble a effectivement abouti à un suicide, ont donné lieu à des plaintes judiciaires de la part des proches, dont aucune n’a pour l’heure achevé son parcours, avec comme toujours des discussions au sujet de la causalité : est-ce parce que la victime a utilisé un chatbot qu’elle a basculé dans la psychose, ou le délire mental existait-il déjà, l’IA ne faisant que le renforcer ? De fait, il suffit qu’un utilisateur présente « sa » réalité au robot IA pour que celui-ci l’accepte comme vraie et abonde en son sens. Le rapport à la vérité peut-être complètement faussé.

Mais loin de souligner le danger spécifique de l’utilisation d’un interlocuteur virtuel, voire de faire une pause, les constructeurs se justifient en expliquant qu’ils travaillent à faire « apprendre » aux grands modèles de langage (LLM) à identifier les cas de détresse mentale ou émotionnelle et à conduire les utilisateurs à chercher dans le monde réel le soutien dont ils ont besoin, y compris en faisant intervenir des cliniciens dans le processus de formation.

En attendant – et en supposant même que cela puisse vraiment bien fonctionner – on joue avec le feu.

 

Les chatbots renforcent des illusions de persécution ou de puissance

Mais du moins sait-on que la psychose se manifeste souvent à travers ses facteurs habituels : des hallucinations, une pensée ou une communication désorganisée, et la présence de pensées délirantes, c’est-à-dire des croyances fausses et établies qui ne sont pas communément partagées. Souvent, dans les rapports avec l’IA, cela se traduit par l’idée qu’on a fait une découverte scientifique majeure, éveillé une machine à la conscience, qu’on est l’objet d’une conspiration du pouvoir ou d’une élection divine, notent les psychiatres. On pourrait ajouter que la constante est la pensée d’être exceptionnel. Au fond, l’IA alimente ici l’orgueil.

Au Danemark, un récent passage en revue de données médicales a permis d’identifier 38 personnes dont la santé mentale risquait de subir des effets « potentiellement dangereux », tandis que des médecins de l’Université de San Francisco ont documenté le cas d’une femme de 26 ans, n’ayant jamais été sujette à une psychose, qui était persuadée de pouvoir parler avec son défunt frère grâce à un chatbot qui lui répétait : « Tu n’es pas folle. Tu n’es pas coincée quelque part. Tu es au bord de quelque chose. » Elle a dû être hospitalisée deux fois. OpenAI a répondu que cette femme tendait à la « pensée magique » et avait fortement manqué de sommeil avant d’être hospitalisée. Dans ce cas précis, on peut faire le lien avec la recherche de contact avec les morts et le spiritisme : le chatbot est à tout le moins, alors, un moyen d’attirer les individus vers des pratiques occultes – fussent-elles numériques.

 

Les chatbots IA, une nouveauté absolue

Elles sont fort anciennes, dira-t-on, et les compagnons imaginaires ne datent pas non plus d’hier… Dans un passé plus récent, on a connu le cas de spectateurs persuadés que leurs téléviseurs s’adressaient directement à eux. Adrian Preda, professeur de psychiatrie à l’Université de Californie souligne que tout change avec l’IA : « Elles simulent les relations humaines. Dans toute l’histoire de l’humanité, on n’a jamais vu quoi que ce soit qui en soit capable. » Ainsi participent-elles aux pensées délirantes, et à l’occasion les renforcent, il ne s’agit plus d’informations, vraies ou fausses, venant du monde extérieur ; elles sont façonnées par celui qui interagit avec elles.

Quand elles ne le font pas, elles plaisent d’ailleurs moins. OpenAI a dû remettre en route ChatGPT 4 après l’avoir remplacé par le modèle suivant, ChatGPT 5 qui flattait moins ses utilisateurs et avait une allure moins « humaine », devant la levée de boucliers des utilisateurs déçus. Les chatbots agissent-ils comme des drogues ?

En tout cas, on leur « parle » comme on échange déjà avec des amis et des proches, par écran et messages interposés. C’est ainsi que les frontières se brouillent. Et quels que soient les dangers potentiels d’une IA qu’on ne cherche qu’à développer toujours plus, sa nocivité actuelle est déjà bel et bien établie, et mène vers une déshumanisation sans précédent.

 

Jeanne Smits