Le publiciste Raimundo Rojas, qui représente le mouvement National Right to Life aux Nations unies, raconte la discussion sans issue qu’il a eue avec la version payante de ChatGPT qu’il utilise, à propos d’une tâche qu’il lui avait demandée. Il s’agissait de rédiger une courte légende pour une infographie présentant Donald Trump en président le plus pro-vie de l’histoire américaine récente. Elle a refusé net. Pas par manque d’informations, pas parce que l’allégation était fausse : parce que le nouveau règlement ne l’autorisait plus à publier ce type de message concernant une personnalité publique. Elle considérait que c’était une « manipulation politique ciblée » et a clos le débat.
Qu’est-ce que cela montre ? Que pour les géants du numérique, défendre les enfants à naître relève de la « politique ». Quand on demande de l’aide à ChatGPT pour écrire sur la dignité de l’enfant à naître, elle vous fait la leçon sur les règles électorales. Raimundo Rojas en a tiré l’enseignement suivant : « L’avortement tue un enfant, blesse une mère et brise des familles. Lorsqu’un puissant système d’intelligence artificielle qualifie de “persuasion politique” un discours moral clair sur cette réalité, il conditionne les utilisateurs à considérer la défense des enfants à naître comme un argument partisan de plus, un sujet que les personnes respectables devraient éviter. »
Cela tient au fait que l’IA est conçue par des humains qui ont leur morale et leur idéologie : « Des comités en élaborent les règles. Les entreprises décident de ce qui est considéré comme “nuisible”, “controversé” ou “sûr”. Dans ce cas précis, une entreprise a jugé qu’aider un militant pro-vie à s’adresser à ses propres partisans au sujet du bilan d’un président constituait un franchissement de limite. » Et finalement ChatGPT « s’inscrit dans une vision du monde qui perçoit toute revendication morale forte comme une menace à sa propre autorité ».











