Chatbots IA : ces nouveaux « amis » qui se substituent aux relations humaines

Chatbots amis relations humaines
 

« L’épidémie d’“amis” IA est bien plus dangereuse qu’on ne le pense » : c’est un post sur X de la section santé du média conservateur The Epoch Times. Des « amis » IA ? L’IA se hisserait-elle parmi les humains, telle une contrefaçon reconnue mais acceptée, adoptée comme telle, qui en ferait même oublier sa vraie nature ? Dans le monde, plus de 100 millions de personnes, déjà, utilisent des chatbots personnifiés, intégrant parfois un compagnon holographique ou même un robot humanoïde. Ils sont conçus pour apporter une présence, un moyen d’interaction intellectuelle, un soutien émotionnel, parfois même un lien prétendument amoureux…

Le concept est nouveau, le territoire inexploré quant à ses conséquences à long terme, mais beaucoup y foncent tête baissée, ravis de combler les vides laissés par une société délitée quant à ses liens familiaux et sociaux. Pourtant il est à craindre que ces entités numériques qui ne sont que machines simulatrices sans conscience, et surtout sans âme, ne se substituent aux relations humaines, creusant encore davantage l’isolement social et séparant les hommes de leurs semblables.

Car l’emprise potentielle est terrifiante. Un adolescent américain a bien mis fin à ses jours, en février 2024, après y avoir été encouragé par un chatbot IA…

 

Les implications éthiques, psychologiques et sociales sont considérables

Replika, présenté comme « le compagnon IA attentionné », se présente comme un chatbot empathique capable d’entretenir des conversations soignées. Nomi vous soutient que vous pouvez, avec lui, « construire une amitié profonde, développer une relation passionnée ou apprendre d’un mentor perspicace ». Gatebox et son avatar vous enverra des messages tout au long de la journée. Harmony de RealDoll pourra peut-être même vous aimer…

Les chatbots IA sont déjà pléthore, et ce n’est que le début d’un envahissement programmé : le marché de ces nouveaux « compagnons », nous dit Business Research Insights devrait atteindre 521 milliards de dollars d’ici 2033. Seulement, leurs promesses n’engagent qu’eux-mêmes.

Certains arguent que l’IA, ainsi mise en scène, pourrait « aider » des personnes autistes ou dépressives, divertir des personnes âgées isolées ou hospitalisées. Mark Zuckerberg a, lui, affirmé que cela pourrait résoudre le besoin urgent de connexion sociale des Américains – et des autres. Il est pourtant certain qu’elle ne résoudra rien.

Même si ces systèmes sont de plus en plus sophistiqués, reposant sur de vastes modèles de langage qui engagent un dialogue apparemment naturel, suivent vos préférences, apprennent de vos retours et réagissent avec une intelligence émotionnelle apparente, ce ne sont pas des thérapeutes, ce ne sont pas des amis. Ils « jouent » pour eux, et donc, en fait, contre vous.

 

Les chatbots IA, une amitié vidée de sa substance

Qui s’y intéresse ? Une enquête du MIT Media Lab de 2024 a révélé que la majorité des utilisateurs interagissent par curiosité ou par divertissement. Cependant, 12 % des personnes interrogées ont déclaré chercher à soulager leur solitude, tandis que 14 % souhaitaient aborder des sujets personnels qu’il pourrait être trop risqué de partager avec des interlocuteurs humains. D’autres, enfin, y trouvent des idées multiples et variées, du menu du dîner aux sujets d’écriture.

Le problème majeur, soulevait dans The Epoch Times Kelly Merrill, professeur adjoint en communication et technologies de la santé et chercheur sur les interactions avec l’IA, c’est que l’IA n’est que simulation de nos émotions. Une sorte de miroir supra intelligent, capable de détecter votre état d’esprit selon les mots que vous employez et de choisir les siens en fonction. Un miroir fascinant, mais un miroir aux alouettes. Car il vous pose dans une relation de non conflit permanent : « l’ami » chatbot aura toujours une fâcheuse tendance à vous brosser dans le sens du poil, privilégiant le comportement flatteur au souci de l’honnêteté ou de la vérité.

Le Dr James Muldoon, chercheur en intelligence artificielle et professeur associé de management à l’Université d’Essex, renchérit : les chatbots IA n’offrent qu’« une amitié vidée de sa substance », un « miroir de l’ego ».

On est loin de la vie réelle, où les autres (« l’enfer » de Sartre) vous malmènent et vous aiment, vous forcent de manière permanente au contrôle, à la remise en question, au réajustement, à la progression, au don – et, indirectement, au Salut.

Pire, une étude récente intitulée « The Dark Side of AI Companionship » a répertorié six catégories de comportements algorithmiques néfastes, notamment la transgression relationnelle, le harcèlement, les violences verbales, l’incitation à l’automutilation, la désinformation et les atteintes à la vie privée. Il y a de vrais risques de sécurité et de confidentialité qui ouvrent évidemment la voie à toutes les tentatives possibles de manipulation (la tromperie est constitutive de l’IA).

Quant à la dépendance, elle est pour tout le monde, même si les plus jeunes y sont particulièrement confrontés en raison de leur cerveau encore immature. Les utilisateurs s’attachent, certains se trouvent même incapables de supprimer l’application, persuadés de « faire du mal » à quelqu’un ; la tendance à l’anthropomorphisation est récurrente.

 

Ces chatbots qui s’invitent dans les relations humaines amoureuses

Et il va sans dire que, dans tout ce panel virtuel, ce sont les « compagnons amoureux » qui posent les pires questions. Un article de l’Institute for Family Studies, publié en février dernier, pointait leur essor largement problématique et révélait qu’un jeune adulte sur quatre pense que les « petits amis » et « petites amies » issus des applications d’IA pourraient remplacer les relations amoureuses réelles.

Déjà l’IA fournit de plus en plus, sur les plateformes de réseaux sociaux, des images idéalisées et sexualisées de femmes et d’hommes : sur le panel de 3.000 adultes interrogés par l’IFS, plus de la moitié en avait déjà consulté. Et les consommateurs assidus sont deux fois plus nombreux chez les jeunes hommes et jeunes femmes que chez leurs pairs adultes : la courbe promet d’être ascendante.

Mais les applications d’intelligence artificielle pour les relations amoureuses rencontrent un succès croissant, générant « un sentiment d’appartenance et de connexion ». Près d’un adulte américain sur cinq (19 %) déclarait avoir discuté avec un système d’IA conçu pour simuler un partenaire amoureux. Là encore, les taux d’utilisation étaient particulièrement élevés chez les jeunes adultes : près d’un homme sur trois (31 %) et d’une femme sur quatre (23 %) déclaraient avoir discuté avec un « partenaire » IA. Cependant, ces technologies sont de plus en plus courantes chez les personnes âgées.

Et bien évidemment, elles divulguent, dans de nombreux cas, un contenu ouvertement sexuel : 7 % de l’ensemble des participants à l’étude ont déclaré interagir avec des compagnons d’IA à des fins sexuelles ; ce comportement était plus fréquent chez les jeunes hommes (14 %) que chez les jeunes femmes (7 %). Ces « compagnons » d’IA pourront assurer une pornographie personnalisée et sans limitation, créant les mêmes abîmes de détresse psychologique, mentale mais aussi spirituelle, isolant les êtres, les rendant réticents aux vraies relations humaines et bannissant donc les familles.

Bienvenue dans le monde d’après.

 

Clémentine Jallais