Analyse : le Vatican publie une Note sur l’intelligence artificielle (IA) et son rapport à l’intelligence humaine (IIIe partie)

Vatican Note IA IIIe
 

La toute récente Note de deux Dicastères romains sur l’intelligence artificielle et son rapport à l’intelligence humaine, Antiqua et Nova, nous l’avons dit, se révèle assez optimiste, puisqu’elle vante ce qu’elle considère comme les atouts de l’IA et pense qu’il est possible d’y mettre des limites et des garde-fous. Mais notre analyse serait incomplète si nous n’indiquions pas les critiques d’Antiqua et Nova à son égard… elles-mêmes incomplètes, comme nous le soulignerons aussi.

En dehors des limites inhérentes à sa nature, que nous avions évoquées dans le premier article de cette « trilogie », la Note des Dicastères pour la Doctrine de la foi et de l’Education et de la culture présente des réserves quant à la manière dont on considère l’IA, et à la manière dont on l’emploie.

On pourrait se servir de l’IA – là, c’est une mise en garde signée du pape François – pour promouvoir le « paradigme technocratique qui perçoit tous les problèmes du monde comme pouvant être résolus par le biais des seuls moyens techniques », l’humanité et la fraternité cédant le pas à « l’efficacité », quitte à porter atteinte à la « dignité humaine » et au « bien commun ». « L’IA doit être mise “au service d’un autre type de progrès : un progrès qui soit plus sain, plus humain, plus social, plus intégral” », affirme la Note en citant Laudato si’. Reconnaître que tout « progrès » n’est pas forcément bon, c’est déjà un bon point…

 

L’intelligence artificielle dans l’éducation, outil de décervelage

Après avoir souligné les dangers potentiels de l’IA dans les domaines des relations humaines, du travail et des soins, la Note s’intéresse à ses relations avec l’éducation. Elle rappelle d’emblée le rôle éminent du maître dans l’enseignement, celui qui ne communique pas seulement des connaissances mais sert aussi de modèle des « qualités humaines essentielles », tandis que sa présence « motive » les élèves, aussi parce qu’il prend « soin » d’eux. Cela n’empêche pas la Note d’assurer que l’IA peut être utilisée de manière « prudente » dans le cadre d’un enseignement qui sauvegarde la relation entre le professeur et l’élève, pour apporter « un soutien sur mesure » et offrir « des retours immédiats ».

Quand on sait les périls de la virtualisation de l’enseignement, les insuffisances liées à l’invasion des classes par les écrans, notamment pour l’apprentissage de la lecture et de l’écriture et de l’analyse consciente, on peut regretter cette vision positive à l’excès. Mais reconnaissons que la Note dénonce bel et bien le risque de voir les élèves biberonnés à l’IA perdre de leur capacité à « mettre en œuvre certaines compétences de manière indépendante » et à accroître leur dépendance aux écrans.

La Note estime que l’IA peut être utilisée dans le cadre de l’éducation pour promouvoir la pensée critique (on peut en douter, quand on entend les récits de professeurs se lamentant de se voir remettre des devoirs qui sont intégralement pompés sur des « réponses » fournies par ChatGPT), mais elle souligne tout de même cette limite :

« Il convient de noter que les programmes d’IA actuels sont connus pour fournir des informations biaisées ou fabriquées, ce qui peut amener les étudiants à faire confiance à des contenus inexacts. Ce problème “risque non seulement de légitimer les fausses nouvelles et de renforcer l’avantage d’une culture dominante, mais aussi, en bref, de saper le processus éducatif lui-même”. Avec le temps, des distinctions plus claires pourraient apparaître entre les utilisations correctes et incorrectes de l’IA dans l’éducation et la recherche. »

Pour la mise en garde, il est déjà bien tard ; d’autant qu’à force de vouloir paraître de leur temps, les rédacteurs de la note se gardent de positions plus tranchées. C’est dommage, car aujourd’hui c’est la dénonciation claire et nette de la déshumanisation de la pensée qui correspondrait le mieux aux exigences du temps.

 

La Note du Vatican souligne comment l’IA peut servir le mensonge

Le chapitre sur la « désinformation » est celui qui a principalement attiré l’attention des médias. On y lit :

« Cependant, l’IA présente également un risque sérieux de générer des contenus manipulés et de fausses informations, qui peuvent facilement induire les gens en erreur en raison de leur ressemblance avec la vérité. Cette désinformation peut être involontaire, comme dans le cas d’une “hallucination” de l’IA, où un système d’IA génératif produit des résultats qui semblent réels mais qui ne le sont pas. Etant donné que la génération de contenu imitant les artefacts humains est au cœur de la fonctionnalité de l’IA, l’atténuation de ces risques s’avère difficile. Pourtant, les conséquences de ces aberrations et de ces fausses informations peuvent être très graves. C’est pourquoi toutes les personnes impliquées dans la production et l’utilisation de systèmes d’IA devraient s’engager à garantir la véracité et l’exactitude des informations traitées par ces systèmes et diffusées au public. »

T’as qu’à croire ! L’IA, outil de domination délibérément alimentée d’une certaine façon par ceux qui la développent et l’utilisent, est déjà une réalité. Comment croire qu’un monde qui a tourné le dos à la Vérité, un monde qui a balayé Dieu, un monde qui relativise tout, y compris la réalité de l’homme et de la femme, un monde où l’immoralité est enseignée de force à l’école, puisse soudain produire une intelligence artificielle soudain exempte de tous ces mensonges et entreprises scandaleuses ?

La Note est bien obligée de reconnaître l’existence des « deepfakes » et du mésusage de l’IA par la diffusion délibérée de fausses informations ou de fausses mises en scène fabriquées en vue de répandre des mensonges ou de « faire du tort à autrui ». Elle considère même qu’il y a des implications politiques dès lors que l’IA peut alimenter « la polarisation politique ou les troubles sociaux », allant jusqu’à « saper les fondations de la société ».

« Lorsque la société devient indifférente à la vérité, divers groupes construisent leurs propres versions des “faits”, affaiblissant les “liens réciproques et les dépendances mutuelles” qui sous-tendent le tissu de la vie sociale. A mesure que les deepfakes amènent les gens à tout remettre en question et que les faux contenus générés par l’IA érodent la confiance dans ce qu’ils voient et entendent, la polarisation et les conflits ne feront que s’aggraver. Une tromperie aussi répandue n’est pas anodine ; elle touche au cœur de l’humanité, démantelant la confiance fondamentale sur laquelle les sociétés sont construites », souligne la Note.

Ce n’est pas faux – même si à l’inverse, l’existence-même des deepfakes peut tourner à l’avantage de ceux qui s’en servent pour ridiculiser des affirmations contraires aux mensonges diffusés par des autorités dont la vérité n’est pas la préoccupation première.

 

L’intelligence artificielle, la surveillance et le « crédit social »

Dans un autre ordre de critiques, la Note dénonce la capacité de l’intelligence artificielle de porter atteinte à la vie privée et à démultiplier la « surveillance », celle-ci pouvant être « abusée afin d’exercer un contrôle sur la vie des croyants et la manière dont ils expriment leur foi », d’autant que l’IA peut grâce à des données parcellaires renseigner sur le comportement et la pensée des personnes. Il faut des « régulateurs », insiste la Note, qui pointe en particulier le système du « crédit social » facilité par l’IA. Sans doute. Mais c’est plus facile à dire qu’à imposer, ainsi qu’en témoigneraient certainement bien des Chinois si la dystopie communiste leur en laissait le loisir…

Paradoxalement, l’une des principales raisons que donne la Note de brider le développement de l’intelligence artificielle est la manière dont celle-ci pèse sur l’utilisation de l’énergie – tout cela au nom de la protection de la « Maison commune ». Ce serait pour cette raison qu’il faudrait, selon le pape François largement cité dans ce contexte, ne pas s’intéresser à la seule « utilité » de l’IA mais d’une part de la développer de manière « durable », et d’autre part, d’obtenir un « changement de l’humanité » qui ne se soumettrait plus au « paradigme technocratique » mais s’attacherait à la promotion du « bien intégral de la personne humaine tout en sauvegardant notre maison commune ». Ici on sombre dans un certain charabia…

 

Antiqua et Nova souligne le danger des armes IA autonomes

Pour ce qui est de l’intelligence artificielle et de la guerre, c’est aussi une double approche qui prévaut dans la Note : si l’IA pourrait « aider les nations à rechercher la paix et à assurer la sécurité grâce à ses capacités analytiques » – on se demande bien comment –, elle peut aussi être utilisée comme arme, affirme-t-elle.

Elle dénonce en particulier les Systèmes d’armes létales autonomes « capables d’identifier et de toucher des cibles sans intervention humaine directe » sans posséder « la capacité humaine unique de porter un jugement moral et de prendre une décision éthique ». Certes. C’est ici que la Note souligne la demande du pape François que l’on revoie la question de leur développement et qu’on en interdise l’usage. Difficile, au point où nous sommes déjà arrivés…

La Note remarque aussi que des armes IA de destruction massive pourront être créées, de telle sorte qu’elles posent un « risque existentiel » pour des régions entières voire pour « l’humanité elle-même ». Avec les armes nucléaires, on avait l’équilibre de la terreur : une fois l’IA autonome mise en œuvre, qu’en serait-il de ce garde-fou de l’instinct de survie des êtres humains ? La Note pose aussi la question de l’utilisation malveillante de ce type d’outils par des « individus » (qu’on s’est déjà habitué à rencontrer dans l’univers fictif de James Bond) ; il est vrai, comme elle le dit, que « les atrocités commises tout au long de l’histoire suffisent à susciter de graves inquiétudes quant à l’abus potentiel de l’IA ».

Il faut soumettre l’utilisation de l’IA dans l’armement « aux plus hauts niveaux d’évaluation éthique », assure la Note du Vatican. Mais qui ? Une instance internationale ? L’ONU ? Voilà en tout cas, croit-on comprendre, un nouveau problème « global » qui requiert une solution « globalisée ». A ce jour, ce type de démarche a surtout servi la mondialisation, sans finalement contraindre celui qui ne veut pas le faire.

 

De l’intelligence artificielle à l’idolâtrie

Pour finir, la Note s’intéresse à l’IA et à notre « relation avec Dieu ». « Alors que la société s’éloigne de la transcendance, certains sont tentés de se tourner vers l’IA à la recherche d’un sens ou d’un accomplissement – des désirs qui ne peuvent être véritablement satisfaits que dans la communion avec Dieu », dit-elle, mettant une nouvelle fois en garde contre l’« idolâtrie » :

« En outre, l’IA pourrait s’avérer encore plus séduisante que les idoles traditionnelles car, contrairement aux idoles qui “ont une bouche et ne parlent pas, des yeux et ne voient pas, des oreilles et n’entendent pas” (Ps. 115:5-6), l’IA peut “parler”, ou du moins en donner l’illusion (cf. Apoc. 13:15). Cependant, il est essentiel de se rappeler que l’IA n’est qu’un pâle reflet de l’humanité – elle est conçue par des esprits humains, formée sur du matériel généré par l’homme, sensible aux données humaines et entretenue par le travail de l’homme. L’IA ne peut pas posséder un grand nombre des capacités propres à la vie humaine et elle est également faillible. En se tournant vers l’IA comme vers un “Autre” perçu comme plus grand qu’elle, avec lequel partager l’existence et les responsabilités, l’humanité risque de créer un substitut de Dieu. Cependant, ce n’est pas l’IA qui est finalement déifiée et adorée, mais l’humanité elle-même, qui devient ainsi esclave de son propre travail. »

Mais l’homme est appelé à la vie intérieure, à accueillir Dieu dans son inhabitation dans l’âme humaine, comme le rappelle la Note, et à « décider de sa propre destinée à la vue de Dieu ».

L’homme, en un mot, ne doit pas externaliser sa pensée et son intelligence…

Tout cela étant posé, la Note s’achève sur une prédiction optimiste centrée sur la « fraternité humaine » et évitant toute précision confessionnelle à travers « la sagesse du cœur » : « Dans cette perspective de sagesse, les croyants pourront agir comme des agents moraux capables d’utiliser cette technologie pour promouvoir une vision authentique de la personne humaine et de la société, tout en sachant que le progrès technologique fait partie du plan de Dieu pour la création – une activité que nous sommes appelés à ordonner au Mystère pascal de Jésus-Christ, dans la recherche continuelle du Vrai et du Bien. »

 

La Note du Vatican sur l’IA oublie l’essentiel

Et c’est finalement bien trop court. Les risques liés à l’intelligence artificielle sont gigantesques, allant de la destruction des emplois les plus divers au phagocytage de tous les aspects de la vie humaine, et c’est une tentation d’orgueil qui se réalise dans l’IA : celle de permettre à l’homme de passer outre à ce qui le limite, au risque de se laisser écraser par ce qu’il aura construit.

Des romans d’anticipation et d’innombrables films l’ont d’ailleurs perçu : en jouant en quelque sorte le rôle d’un démiurge créateur, les maîtres de l’IA ouvrent la porte à des pouvoirs artificiels qui ne pourront plus être maîtrisés, et qui à l’occasion – disent encore les auteurs futuristes – domineront le monde, éventuellement en ayant acquis une forme de conscience d’eux-mêmes et en se retournant contre leurs inventeurs.

On pourrait rétorquer qu’il s’agit là de science-fiction. Du Meilleur des Mondes à Matrix, ce délire – ou cette vision de cauchemar – a nourri les imaginations des générations successives, en attirant au fond l’attention sur des dangers qui paraissent aujourd’hui sinon certains, du moins sérieusement envisagés, et, techniquement, déjà largement envisageables.

A cela s’ajoute un risque que l’Eglise catholique est particulièrement habilitée à soulever : celui de l’infestation démoniaque de la matière qui sert de support à l’intelligence artificielle. Des exorcistes ont déjà attiré l’attention sur cette possibilité ; l’IA a déjà poussé un être humain au suicide.

Ce qui manque sans doute le plus dans la Note vaticane, c’est une supplication explicite au Dieu Un et Trine pour que l’homme soit préservé du mal inédit que pourrait véhiculer l’intelligence artificielle. Une fois la bête lâchée, en effet, ce ne sont pas des forces humaines qui pourraient l’arrêter.

 

Jeanne Smits