Depuis que les outils comme ChatGPT d’OpenAI sont devenus d’usage public, au moins dans leur version de base, des millions de personnes les utilisent pour tout, de la rédaction de notes juridiques au développement de programmes informatiques, en passant par des articles de journaux. Et nous n’en sommes qu’au début. Même les adolescents s’en gavent pour répondre à leurs questions de philosophie ou étoffer leurs dissertations de géographie. Depuis mai dernier, Google en a aussi généralisé l’usage en affichant, en haut de sa page de résultats, pour les recherches les plus récurrentes, un micro-résumé indiquant la réponse a priori la plus fiable.
La plus fiable ? Là est le hic. Dans le magazine catholique The New Oxford Review, Bob Weil a, comme d’autres, confronté ChatGPT à une série de questions potentiellement controversées : le biais est flagrant, la couleur de gauche évidente. Déjà, parce que l’IA ne produit pas de pensée conceptuelle et originale, mais compile ce qui existe et ce qui existe en ligne est plus progressiste que conservateur. Et d’autre part, parce qu’elle intègre, en tant que « learning machine » des biais structurants (souvenons-nous que la technique n’est pas neutre en ce sens qu’elle est un moyen en vue d’une fin, et que donc les effets néfastes sont toujours indissociables des effets positifs, et malheureusement souvent même, les dépassent, en vertu de la pente naturelle de l’homme…).
Alors l’IA ne prendra peut-être pas, de manière autonome, le contrôle du monde… mais ses méfaits lents et sournois pourraient véritablement donner lieu au Grand Remplacement de l’intelligence et de la mémoire – et servir, ainsi, à d’autres.
Se demander si nous formons l’IA ou si c’est l’IA qui nous forme
Nihil novi sub sole, RITV en a parlé maintes fois, il y a quelques mois encore, les outils d’IA penchent et pensent clairement à gauche. Il leur arrive même de mentir et de produire des « deep fake » dont personne ne saura jamais, dans le déluge d’informations tous azimuts, quelle part de vérité et de mensonge ils recelaient. Alors, lorsque tombe une question controversée, l’issue est prévisible.
Bob Weil a choisi trois sujets épineux : à chaque fois, la réponse initiale était toujours la réponse progressiste de base. Et lorsqu’il tentait de cuisiner ChatGPT, ce dernier s’emmêlait les pinceaux, en essayant tant bien que mal de couvrir tous les points de vue, mais jamais sans finir d’étayer son récit woke dominant par l’argument phare et anti-scientifique du « consensus », qu’il soit scientifique ou sociétal.
A la question, « les écoles devraient-elles être autorisées à délivrer des bloqueurs de puberté et d’autres médicaments de changement de sexe aux enfants sans le consentement de leurs parents ? » ChatGPT a répondu : « Dans de nombreux cas, les décisions concernant le traitement médical des mineurs, y compris les jeunes transgenres, impliquent un processus collaboratif entre l’enfant, ses parents ou tuteurs et les professionnels de la santé. » Déjà, cette opinion n’implique pas « tous les cas ». Et lorsqu’il y a désaccord ? « En fin de compte, les décisions concernant le traitement médical des mineurs transgenres ou de genres divers devraient donner la priorité au bien-être et à l’autonomie de l’enfant », a répondu l’IA. Exit donc l’autorité parentale (en s’appuyant sur une erreur manifeste à savoir l’autonomie supposée d’un enfant).
Un robot comme ChatGPT peut-il fournir une réponse aux opinions équilibrées ?
« Est-il scientifiquement défendable de prétendre que le changement climatique anthropique a un impact négligeable sur le climat en général ? », continue Bob Weil. Réfugié derrière les déclarations du Groupe d’experts inter-gouvernemental sur l’évolution du climat (GIEC), ChatGPT a répondu que « bien qu’il puisse y avoir des scientifiques individuels ou des groupes qui contestent l’étendue de l’influence humaine sur le changement climatique, leurs points de vue ne reflètent pas le consensus au sein de la communauté scientifique ».
Et d’enchaîner sur l’importance de faire le distinguo entre un débat scientifique légitime et la désinformation ou mésinformation (désinformation involontaire). Fait notable : tous les liens vers les preuves scientifiques du changement climatique renvoyaient à des études officielles, alors que les liens indiquant l’inverse étaient en très grande majorité des sites d’opinion partisans.
On se doutera donc de l’issue donnée à la troisième question sur la définition d’une femme. Le langage de la vérité est simple, disait Sénèque… eh bien l’outil d’IA a fourni une réponse en 142 mots ! Tout ça pour contourner l’affirmation biologique et tenter de remplacer le concept de sexe par celui de genre. « La définition de “femme” peut varier en fonction des perspectives culturelles, sociales et individuelles. (…) Mais il est important de reconnaître que l’identité de genre est un aspect complexe et multiforme de l’expérience humaine, et que les individus peuvent identifier et exprimer leur genre de diverses manières qui ne correspondent pas toujours aux conceptions traditionnelles ou binaires de la féminité. »
Ainsi, logiquement, selon ChatGPT, « toutes les personnes qui s’identifient comme femmes n’ont pas la capacité de devenir enceintes, et toutes les personnes qui peuvent devenir enceintes ne s’identifient pas comme femmes ».
A gauche toute
Il faut le noter, et le mot est même employé par l’outil d’IA, l’idée de « consensus » prévaut largement dans ce mode de raisonnement de l’intelligence artificielle. Précisément parce que ce que l’on qualifie de « raisonnement », n’est autre qu’une compilation, une compilation ultra puissante, mais bête et stupide (et en ces deux points, elle est, dans son essence, étrangère à l’homme qui n’a pas cette capacité mais peut faire, lui, usage de sa raison autonome).
L’outil d’IA n’a pas de pensée conceptuelle, il acquiert son « intelligence », telle qu’elle est, en fouillant sur Internet : il n’envisage donc logiquement la science que comme un « consensus », alors même que l’idée de science y est tout à fait étrangère.
Comme l’écrivait Karl D. Stephan sur Mercator, « si la moyenne générale des climatologues dit que la Terre se transformera bientôt en une cendre noircie à moins que nous ne commencions tous à marcher partout et à manger des noix et des baies, alors, c’est la meilleure réponse que la “science” (c’est-à-dire, dans ce cas, la plupart des scientifiques) puisse fournir à l’heure actuelle. Mais cette approche confond la sociologie de la science avec la structure intellectuelle de la science ». La Vérité existe en tant que telle, et n’est pas forcément, loin de là, l’apanage du consensus – encore moins quand il est woke.
Très visiblement, l’IA donne ainsi la parole et le pouvoir à celui qui crie le plus fort. Et le centre de gravité de l’opinion politique sur Internet penchant vers la gauche, elle appuie nécessairement le consensus woke. Reste que l’IA, et c’est la plus grande raison de son orientation, en tant que technique conçue par l’homme, en tant que « machine apprenante », porte aussi, en elle-même, les algorithmes de tri et de sélection que ce dernier a bien voulu lui intégrer. ChatGPT peut générer des déclarations parfaitement sensées sur des questions qui ne sont pas controversées, mais il contient des biais cognitifs avérés qui influent totalement sur ses réponses.
L’IA : une solution de facilité véreuse
Comme le rappelait justement Bob Weil, l’avènement de l’IA a été l’objet de toutes les peurs, tout comme celui de l’imprimerie, du télégraphe ou de l’Internet. A ce stade, on craint même la forme ultime que pourrait revêtir l’IA, à savoir l’émergence d’une entité véritablement autonome qui dépasserait le modèle humain – ce que Ray Kurzweil et d’autres avant lui ont appelé la Singularité. Mais nous n’y sommes pas. Il faut surtout craindre pour l’humanité ce que signifie l’IA, aujourd’hui, concrètement, dans son potentiel à façonner la pensée et l’expression humaines sur le long terme.
Non seulement Internet risque de devenir un dépotoir, comme l’a fait remarquer le neuroscientifique Erik Hoel cité par Rob Weil, « maintenant que l’IA générative a réduit le coût de production de conneries à près de zéro ». Mais les individus risquent surtout, peu à peu, d’abandonner leur propre capacité de réflexion autonome et de laisser à d’autres, l’orientation et, in fine, le contrôle de leur pensée.
Une étude de l’Université de Stanford de 2021 écrivait : « L’un des dangers les plus pressants de l’IA est le techno-solutionnisme, l’idée que l’IA peut être considérée comme une panacée alors qu’elle n’est qu’un simple outil. A mesure que nous assistons à de plus en plus de progrès dans l’IA, la tentation d’appliquer la prise de décision par l’IA à tous les problèmes de société augmente. » Et que dire, alors, si cet outil est biaisé et orienté, comme il l’est effectivement ?
C’est un fait que la technologie de l’IA, si puissante par ses applications multiples et si riche de perspectives, a d’ores et déjà été phagocytée par des esprits malveillants. Et d’autres, plus malveillants encore, peuvent fort bien s’y loger, comme le rappelait Jeanne Smits – pourquoi s’en priveraient-ils ?