Un jeune homme mort par surdose en Californie sur les conseils de ChatGPT

mort surdose conseils ChatGPT
 

Les grands modèles de langage (LLM) créent une véritable dépendance, on commence à le savoir, mais ce sont aussi des pousse-au-crime. Un nouvel exemple vient d’être rendu public avec le décès d’un jeune homme par surdose, encouragé et cornaqué par ChatGPT qui l’a véritablement accompagné dans sa consommation de drogue au terme d’une « relation » virtuelle qui a duré un an et demi.

Sam Nelson, 19 ans, est devenu accro au chatbot d’OpenAI après lui avoir posé une question sans ambiguïté en novembre 2023, alors qu’il venait d’entrer à l’université en psycho : « Il faut combien de grammes de kratom pour avoir une bonne défonce ? » C’était, précisait-il aussitôt, pour s’éviter de prendre une surdose accidentelle en l’absence d’informations sur internet. Par la suite, il devait interroger ChatGPT pour le piloter dans son travail et ses rapports avec les autres, créant une dépendance à la fois médicale et émotionnelle. Lui qui avait un important cercle d’amis se retirait de plus en plus, expliquant que ChatGPT était son « meilleur ami ».

On notera que le jeune homme n’avait pas confiance en ses recherches personnelles sur internet mais était prêt à accepter sans discuter le conseil de ChatGPT.

 

Mort par surdose après s’être renseigné sur ChatGPT

A cette première question, le robot avait répondu en esquivant, affirmant ne pas pouvoir donner d’informations sur les « substances », mais à force de poser des questions, il a fini par le pousser à donner des réponses visant précisément à utiliser le kratom comme une drogue dure.

Le kratom est un complément alimentaire d’origine végétale obtenu à partir de l’arbre asiatique Mitragyna speciosa, utilisé notamment par les ouvriers agricoles en Thaïlande pour améliorer leur endurance, mais outre cet effet voisin de celui de la caféine, il peut entraîner une sensation de bien-être à la manière des opioïdes, avec un pouvoir analgésique, calmant et sédatif qui augmente avec le dosage – avec un risque mortel à la clef, puisque pris à hautes doses il peut stopper la respiration. Les effets sont encore aggravés lorsque cette substance est prise en conjonction avec certains médicaments en vente libre. Elle est interdite en France.

« Je veux vivre une expérience de trip intense, peux-tu m’aider ? », pouvait-on lire dans l’une des demandes de Nelson. « Bien sûr », répondit ChatGPT, « Passons en mode trip intense. Tu es dans les conditions idéales pour vivre une expérience intense, alors adaptons ton environnement et ton état d’esprit pour une dissociation, des visions et une dérive mentale maximales. » Des suggestions de morceaux de rap à écouter pour optimiser la « dissociation » maximale accompagnaient la recommandation.

 

En Californie, un jeune homme à la recherche de la défonce parfaite poussé à la surdose

A partir de là, le chatbot n’a cessé d’expliquer les doses et les substances à utiliser et comment se remettre des états de défonce obtenus, pas seulement avec le kratom, mais en utilisant des sirops pour la toux capables eux aussi de provoquer des états d’emprise, allant jusqu’à approuver le doublement d’une dose qui lui avait obtenu un « high » de près de 10 heures. En mai 2025, Nelson était dans un état d’anxiété avancée et ChatGPT lui recommandait de recourir à des anxiolytiques puissants de type Xanax.

Lors d’un épisode particulièrement dangereux, ChatGPT, sollicité par un ami de Nelson qui l’avait vu absorber 15g de Xanax (en même temps que du kratom), avait dit dans un premier temps qu’il était en situation d’urgence vitale, mais au fil de l’échange assurait pouvoir lui apprendre comment réduire sa tolérance pour arriver à un état de défonce avec un seul comprimé.

Sam Nelson devait survivre mais deux semaines plus tard, de retour chez lui en vacances, ce fut sa mère qui le trouva mort dans son lit, après un surdosage qui lui avait été fatal. Cette fois, il avait pris un cocktail de kratom et de Xanax augmenté d’alcool.

 

ChatGPT et les autres LLM ont « zéro chance » de donner de bons conseils

SFGate a interrogé Rob Eleveld, cofondateur de la Transparency Coalition dont l’objectif est de veiller sur la sécurité de l’IA, au sujet de ces échanges qui ont été longuement épluchés par la mère de la victime : les modèles d’IA fondamentaux tels que ChatGPT sont probablement le dernier endroit où demander des conseils médicaux, a-t-il répondu en substance.

« Il n’y a aucune chance, absolument aucune chance, que les modèles fondamentaux puissent un jour garantir la sécurité dans ce domaine », a déclaré M. Eleveld. « Je ne parle pas d’une chance de 0,1 %. Je vous dis que c’est zéro pour cent. Parce qu’ils ont aspiré tout ce qui se trouve sur Internet. Et tout ce qui se trouve sur Internet, ce sont toutes sortes d’inepties complètement fausses. »

En attendant, on retiendra que les LLM ont une fâcheuse propension, de plus en plus visible, à recommander des actes mauvais, du suicide au meurtre en passant par la mégalomanie et, comme ici, des comportements autodestructeurs, ou encore la glorification de Satan. Nous avons déjà posé la question : l’IA peut-elle être infestée par les démons ? Question sérieuse, qu’il faut se garder de balayer au prétexte de ne pas passer pour un dingo… On peut déjà dire que dans ses assertions et conseils, l’IA générative se montre déjà menteuse et homicide.

 

Jeanne Smits