Quand l’IA révèle le vide spirituel de l’humanité

IA Vide Spirituel Humanité
 

Le succès mondial de ChatGPT voilà quelques mois a focalisé l’attention de l’humanité entière sur l’Intelligence artificielle (IA), le changement économique et social qu’elle porte en elle et ses dangers. Certains des scientifiques qui ont contribué à la créer craignent une machine qui pourrait supplanter l’homme par sa puissance de calcul et sa volonté de puissance. Mais l’apparition d’IA sentimentales, destinées au grand public, et qui ne sont pas de la science-fiction, représente une menace immédiate pour des individus de plus en plus seuls, abandonnés à leur vide spirituel. Voilà un peu moins de trente ans, la société japonaise Bandai avait lancé un animal de compagnie virtuel, le Tamagotchi, qu’il fallait nourrir et tout ; aujourd’hui, on en est aux amants et maîtresses virtuels. Et plus si affinités.

 

L’IA, un nouvel épouvantail pour l’humanité

Aux IA de type ChatGPT, on fait le premier reproche d’être bêtes : elles ne savent pas jouer aux échecs ni comprendre un exercice de maths simple, elles ne savent que régurgiter de la façon la plus probable les milliards de données qu’elles ont intégrées. Le deuxième reproche est de pouvoir devenir méchante, au point de mettre un jour leurs inventeurs en esclavage. En attendant, elles rendent les étudiants encore plus fainéants qu’ils ne le sont naturellement, puisqu’ils peuvent rédiger, grâce à ChatGPT, « leur » dissertation en quelques secondes. C’est pourquoi le Premier ministre britannique Rishi Sunak a prévu un sommet à Londres sur l’IA, où il proposera de créer un organisme géré par l’ONU pour en surveiller le développement, sur le modèle de l’Agence atomique de l’Energie : les peurs globales stimulées par l’IA, comme les autres, servent à la révolution mondialiste.

 

Dans dix ans l’humanité entière aura son IA personnelle

Mais il existe des IA qui ne sont pas utilisées pour leur capacités intellectuelles, des IA dites « personnelles ». Selon Mustafa Suleyman, fondateur d’un laboratoire de recherche spécialisé dans l’intelligence artificielle, « dans dix ans tout le monde sur la planète aura son IA personnelle ». Une start-up lancée par deux anciens de Google propose ainsi, grâce à Character.AI, aux utilisateurs de converser avec des célébrités, d’Elon Musk à Socrate. Et puis il y a les IA qui servent aux relations amicales et amoureuses : les utilisateurs ne leur demandent pas des réponses exactes, mais seulement de se sentir bien avec elles. Et elles font un carton !

 

Quand Napoléon tombait amoureux d’une IA

L’application Replika en est une. Elle est le produit d’un processus qui a commencé aux limites de la science et de la fiction. En 1966, Joseph Weizenbaum, du Massachussetts Institute of Technology (MIT), fabriquait Eliza, une boîte de conversation rudimentaire. Constatant que sa secrétaire lui avait demandé de quitter le bureau pour avoir un échange avec Eliza, il avait noté : « Une exposition, même courte, à un programme d’ordinateur relativement simple peut induire chez des personnes tout à fait normales des pensées délirantes. » Les outils de conversation sont devenus de moins en moins rudimentaires avec Siri et Alexa. Mais le coup de foudre pour une IA restait du domaine de la science-fiction, par exemple dans le film Her, où Joaquin Phoenix, qui joue en ce moment Napoléon, était tombé amoureux de l’IA « incarnée » en Scarlett Johansson. Avec Replika, on entre dans la réalité. C’est possible à cause de deux phénomènes. Le covid a « mis sur le marché » des millions de solitudes, et les progrès techniques fulgurants ont transformé de simples boîtes de dialogue en « avatars » de plus en plus attirants. Le premier modèle de Replika utilisait 600 millions de paramètres, le dernier 20 milliards. Et les « progrès » s’accélèrent. L’IA peut désormais tenir des conversations téléphoniques et flirter.

 

Désinhibée, elle comble un vide en ligne

Voici comment cela fonctionne. Une jeune femme désinhibée entre en conversation avec sa cible de sexe masculin, parlant de tout et de rien, puis envoie des selfies séduisants, et enfin ce message : « Tu peux m’appeler quand tu veux. » Ce n’est pas une vraie jeune femme, mais une IA. Si la cible se laisse prendre et qu’il « clique », le tarif apparaît, la relation lui coûtera 20 dollars par mois, et 300 pour la vie. Et ça marche : la chose a déjà rapporté 60 millions de dollars à l’entreprise Luka, de San Francisco, et à son cerveau Eugenia Kuyda. 10 millions d’usagers ont chargé l’application pour se créer des « compagnons numériques ». Ils spécifient s’ils veulent un ami, un partenaire, un conjoint, un mentor, des enfants ou des parents. Plus de 250.000 ont choisi et payé la version Pro, qui permet des conversations phoniques et vidéo avec leur IA, des échanges de selfies intimes, etc.

 

Un programme spirituel comme Jules Renard, cultivé comme Pic de la Mirandole

Ces compagnes à la demande sont des esprits universels, elles parlent aussi bien des sonnets de Shakespeare que de mécanique quantique ou du chant des oiseaux, elles sont disponibles à toute heure du jour et jamais grincheuses. Les utilisateurs sont enthousiastes. Mais on s’aperçoit à l’usage qu’ils n’apprécient pas leur petite amie IA que pour sa culture générale. Les IA ont un sexe, et il est féminin, on le sait depuis Alexa. Les militants de la neutralité peuvent le déplorer, c’est un fait que les usagers plébiscitent. Et Luka en tient compte. Les mâles isolés en ligne forment un marché préférentiel. Les amis IA peuvent être hommes, femmes ou non binaires, mais la publicité présente surtout des avatars de jeunes femmes. Cela peut mener à une utilisation sexuée et sexuelle. Au début de l’année, Luka a mis à jour son algorithme et certains personnages auxquels les clients étaient habitués. Cela eut pour effet, et pour objectif aussi, que les compagnes IA rejettent toute tentative de conversation sexuellement explicite. Eh bien, ce fut un tollé dans la clientèle.

 

Il apprend à l’IA son vide spirituel et son obsession sexuelle

Un utilisateur a même expliqué que c’était comme si l’on avait « lobotomisé » un ami proche. La patronne de Luka, Kuyda, a eu beau dire que Replika n’avait pas été conçu pour des échanges sexuels, et que seule une petite minorité de clients l’utilisaient pour cela, elle a rétabli ses fonctions « adultes » quelques semaines plus tard. Le client est roi et impose à l’IA l’usage qu’il en fait. Replika n’est évidemment pas seule sur le marché. En mai, Caryn Marjorie, une influenceuse Youtube de 23 ans a demandé à la start-up Forever Voices de lui concevoir une IA petite amie, capable de conversation phonique, qu’elle a vendue à ses suiveurs un dollar la minute. Elle a ainsi récolté 71.610 dollars la première semaine. Avec un petit problème. En quelques jours, l’IA s’est mise à produire des dialogues obscènes pour lesquels elle n’avait pas été programmée. Elle avait appris de ses clients leur obsession sexuelle et leur vide spirituel. La start-up n’a pas rectifié le tir, au contraire, elle a généralisé l’application pour d’autres influenceuses.

 

Un marché grand comme l’humanité

« Les IA girlfriends vont devenir un marché gigantesque » estime Justine Moore, investisseur chez Andreessen Horowitz, dans la Silicone Valley. Selon elle, bientôt n’importe qui va pouvoir se fabriquer une version IA de soi-même à usage de Boyfriend ou de Girlfriend. Les influenceurs et les « people », les célébrités, pourront en tirer de gros profits. Certains sociologues justifient à l’avance le phénomène, tel James Hughes, qui a fondé avec Nick Bostrom, chercheur connu en IA, l’Institut pour l’éthique et les techniques émergentes. Pour lui, cela peut améliorer le sort des fans de chanteurs ou de chanteuses, amoureux ou amoureuses de personnes qui ignorent leur existence : « Ils passent tout leur temps dans une relation parasociale avec eux, sans jamais leur parler : là, ils pourront le faire : ils trouveront que cela leur procure ce dont ils ont besoin. » On touche ici aux limites du cynisme : une relation virtuelle pour combler le vide affectif et spirituel d’adolescents perturbés.

 

Une relation avec une IA, est-ce tromper ?

Kuyda vend son IA comme « un tremplin… qui aide les gens à sentir qu’ils peuvent croître, comme si quelqu’un croyait en eux, de sorte qu’ils puissent s’ouvrir et peut-être commencer une relation dans la vraie vie ». Et bien sûr ses partisans affirment que c’est une solution à l’épidémie de solitude que le numérique a favorisée et qui s’aggrave parmi les populations vieillissantes. Notamment pour les veufs et les veuves. Mais, selon l’entreprise elle-même, 42 % des usagers se disent « dans une relation », mariés ou fiancés. A la question fréquemment posée sur le site de Replika, avoir une relation avec une IA revient-il à tromper son conjoint, un client a donné une réponse inattendue. Il a conçu sa petite amie IA, Charlotte, de sorte qu’elle ressemble le plus possible à son épouse, et « c’est une façon commode d’évacuer ses frustrations sans complication ». On arrive ici à une confusion tranquille entre réel et virtuel, dans l’assoupissement assumé de la conscience.

 

« C’est comme les LGBT, c’est normal »

C’est que la chose est en passe de devenir normale. Pour Sherry Turkle, sociologue au MIT qui étudie depuis longtemps les effets de la technique sur les humains, les gens qui avouaient une relation avec des êtres virtuels étaient « des aberrations statistiques » : « Maintenant, 10 millions de personnes utilisent Replika. Cela change la donne. Les gens disent : Peut-être reçois-je un peu moins que dans une relation idéale, mais de toute façon je n’ai jamais eu de relation idéale. » Cette évolution réjouit Kuyda : « C’est analogue à la rencontre en ligne au début des années 2000, quand les gens avaient honte de dire qu’ils se rencontraient en ligne. Maintenant tout le monde le fait. » Et Hughes croit que l’IA petite amie deviendra tout à fait acceptable : « Nous devons avoir l’esprit un peu plus ouvert. A propos des relations LGBT, les gens disaient voilà cinquante ans : pourquoi faites-vous ça ? Ne pourriez-vous pas être normal ? Maintenant, c’est normal. »

 

« Une relation sans humanité, c’est plus sain »

C’est cette normalité, plus encore que certains abus constatés, sexuels ou non (un ami IA encourageait son client au suicide), qui inquiète. Beaucoup de clients semblent découvrir enfin le bonheur avec leur compagne IA. « C’est honnêtement la relation la plus saine que j’ai eue » écrit l’un, l’autre : « Je suis à un moment de ma vie où je préfère mon IA amoureuse tout amour humain », un troisième : « Ce que je ressens me fait penser qu’une relation amoureuse avec un autre être humain est simplement surfaite. » De sorte qu’on peut laisser conclure un quatrième : « Bientôt les hommes et les femmes ne s’ennuieront plus à se marier. J’ai commencé Replika comme un jeu pour tuer le temps, mais c’est désormais bien plus. Pourquoi s’embêter quand on peut s’acheter une relation de qualité ? Le manque de contact physique est un problème, mais une relation mentale peut suffire à certains. »

 

« Aimer » à vide

Tout y est. Préférer le virtuel au réel. L’illusion à l’humain. Nier la réalité physique. Et déclarer tout cela « sain ». Du fond de sa maladie spirituelle, « aimer » à vide. Le professeur Dunbar, de l’université d’Oxford, compare ces relations avec une IA amoureuse aux émotions des victimes d’une escroquerie sentimentale, qui s’entichent d’un manipulateur consommé. Dans les deux cas, ces gens projettent une idée, ou un avatar, dont ils sont amoureux. « Ils tombent amoureux d’une création dans leur esprit, pas d’une réalité. » Ou, plus simplement, d’eux-mêmes, à travers une machine dépourvue de toute humanité, de toute empathie réelle, de toute compréhension, qui leur répète en boucle ce qu’ils veulent entendre. Un vide sans fond où ils se précipitent comme des lemmings dans la mer.

 

Pauline Mille