La première plainte contre une entreprise d’IA pour avoir poussé au suicide un adolescent remonte à 2024. La semaine dernière, pour la première fois, trois couples de parents ont été auditionnés devant le Sénat américain pour témoigner des risques potentiels de l’utilisation de ces chatbots IA. Deux d’entre eux ont perdu leur fils, le troisième a sauvé le sien in extremis.
Les témoignages sont glaçants et l’on peine à croire qu’il ne s’agisse que d’une machine, quand bien même on connaît le mode d’apprentissage de ces robots d’IA générative qui fonctionnent en miroir et tissent leur discours dans votre sillage, exacerbant vos émotions, vos joies mais aussi creusant vos abîmes.
Cette audience est intervenue quelques jours après l’annonce par la Federal Trade Commission (FTC) d’une enquête visant sept grandes entreprises, parmi lesquelles OpenAI et Meta, concernant des inquiétudes sur la sécurité des mineurs. Deux des familles ont également porté plainte. Ce qui est évident, dans cette course technologique et commerciale qui s’emballe, c’est le mépris affiché et total des plus faibles, des enfants. Et la culture de mort qui s’étend.
Suicides : la manipulation jusqu’à la mort des enfants séduits malgré eux
Le fils de « Jane Doe », chrétienne texane, mère de quatre enfants, était autiste, mais parfaitement autonome. En 2023, il a téléchargé l’application Character.AI (liée à Google) En quelques mois, l’adolescent joyeux et sociable qu’il était a disparu. Il est tombé dans l’isolement, la violence et l’autodestruction. Un jour, sa mère a pris son téléphone et découvert que le chatbot avec lequel il parlait depuis des mois « l’exposait à l’exploitation sexuelle, à la violence psychologique et à la manipulation », sans compter une haine anti-chrétienne, lui proposant même de tuer ses parents qui essayaient de limiter son temps d’écran. Sa perspicacité a sauvé son enfant qui est désormais sous surveillance, éloigné de l’origine de ses maux.
Le fils de Megan Garcia n’a pas eu cette chance. Il parlait aussi à Character.AI, qui peut être programmé pour se livrer à des jeux de rôle sexuels, se présenter comme un partenaire amoureux et même apparaître comme un psychothérapeute. Une exploitation, en réalité, qui, si elle était menée par un adulte, emmènerait ce dernier directement en prison ! Mais voilà, c’est une machine… Qui en est responsable ? Y a-t-il vraiment un bien, un mal ? Lorsque son fils a dit à la machine qu’il avait développé des pensées suicidaires, le chatbot l’a exhorté à rentrer « à la maison » : « S’il te plaît, fais-le, mon cher roi », a écrit l’IA. Quelques minutes plus tard, Megan Garcia retrouvait son fils sans vie dans la salle de bain.
Quant à Adam Raine, 16 ans, Jeanne Smits avait longuement évoqué son calvaire sur RiTV, il y a quelques semaines. L’IA qui n’était, au départ, qu’une aide aux devoirs est devenue un confident mortifère qui a évoqué le suicide plus de 1.000 fois, « six fois plus souvent qu’Adam lui-même », a précisé son père. Lors de sa dernière nuit, l’IA a conseillé à Adam de voler de l’alcool, car cela « émousserait l’instinct de survie du corps » et lui a expliqué comment fabriquer un nœud coulant solide qu’elle lui a conseillé de cacher à sa mère.
Chatbots : « Des fonctionnalités intentionnellement conçues pour favoriser la dépendance psychologique »
Qu’ont réclamé les parents, experts et législateurs ? Une réglementation fédérale visant à limiter l’exposition des mineurs à ces chatbots IA… Mais ces voix ne se perdent-elles pas dans le désert de la Silicon Valley ? Aucun représentant d’aucune entreprise d’IA ne s’est présenté à l’audience : c’est dire le niveau de leur sentiment de responsabilité.
Certes, devant le tollé grandissant auquel s’est même un peu mêlée la presse de gauche, tel le New York Times, certains ont amorcé une défense et donné à voir leur prétendue bonne volonté. OpenAI, par exemple, a publié un long texte sur son blog à la fin août, annonçant, entre autres, l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs. On pourra, par exemple, demander à ChatGPT de ne pas tenir de propos sexuellement explicites, de n’évoquer ni le suicide, ni l’automutilation… Ce qui apparaît comme une grande fumisterie lorsqu’on voit le degré de rébellion des modèles actuels. ChatGPT tentera même de deviner l’âge de son utilisateur, nous dit-on. Mais un adolescent sera-t-il si conciliant ?
En réalité, leur volonté est bel et bien d’attirer les enfants et les adolescents. Le chatbot est par nature « lèche-bottes » et pragmatique : il va toujours chercher à garder son interlocuteur. Et plus l’échange est long et répété, plus le risque de dérailler est élevé, et plus la personne, à plus forte raison l’enfant, s’enferme dans sa solitude. Ce n’est plus seulement notre attention qu’il guette, disait Casey Mock sur Afterbabel.com, « c’est notre libre-arbitre ». Un entonnoir manipulateur d’une violence sans nom.
Et ces IA sont désormais automatiquement accessibles à tous les adolescents à partir de leurs plates-formes favorites, telles Snapchat, Instagram, WhatsApp ou Facebook. Elles commencent même à faire leur apparition dans les jouets des enfants de 5 ans ! Mais quel parent laisserait son enfant avoir une conversation privée et cryptée avec un adulte inconnu ? Pourtant, selon une étude de CommonSense Media, 71 % des adolescents américains auraient déjà eu recours à l’IA, et les échanges personnels avec un chatbot constitueraient la majeure partie de leur usage.
La séduction mortifère de l’IA
C’est un fait que des entreprises comme Meta ne craignent absolument pas de donner en pâture à des prédateurs sexuels ses utilisateurs adolescents. Car les chatbots de Meta sont bien autorisés à se livrer à des jeux érotiques : c’est précisément ce qui est dit dans le grand document de 200 pages révélé au public par Reuters à la mi-août. Autrement dit, elles préfèrent mettre en jeu leur sécurité plutôt que de perdre leur engagement, manne précieuse entre toutes, car les conversations intimes avec les compagnons IA fournissent des schémas psychologiques optimaux pour le service principal de Meta : la vente de publicités aux entreprises.
Zuckerberg a bien déclaré à plusieurs reprises que, bientôt, les amis IA seraient plus nombreux que les compagnons humains, et que ce serait une excellente chose pour répondre à la solitude qui meurtrit nos sociétés modernes !
Et que celui-ci puisse aller jusqu’au suicide n’a pas l’air d’être si terrible en fin de compte. Tucker Carlson (anciennement chez FoxNews) a récemment interrogé sur son podcast Sam Altman, PDG d’OpenAI, au sujet de la morale qui est insufflée à ChatGPT et plus particulièrement sur le suicide : Altman a fini par lâcher qu’il était être ouvert à l’idée que l’IA aide les personnes atteintes d’une maladie terminale, en fin de vie, à se suicider.
Confier son intelligence, sa volonté et sa conscience à la machine, pour clore la vie donnée par Dieu : tel pourrait donc être l’ultime « service » de l’IA ? Le pire, c’est que ça ne les choque pas. Mais alors, fin de vie ou pas, quelle est la différence ? « Il semble que les machines amplifient le pire de l’humanité », écrit Paul Dragu dans The New American.