Une Déclaration demande l’arrêt de la superintelligence artificielle (ASI)

Déclaration arrêt superintelligence artificielle
 

De très grands noms de l’intelligence artificielle ont signé une Déclaration sur la superintelligence pour demander l’interdiction pure et simple du développement de cette IA que l’on annonce capable de surpasser l’intelligence humaine à plus ou moins brève échéance, au nom de la sécurité de l’humanité – y compris sa simple survie – et du respect de ce que celle-ci veut décider à son sujet. A l’heure d’écrire la Déclaration a recueilli un peu plus d’un millier de signatures, depuis celle du co-fondateur d’Apple, Steve Wozniak, et du fondateur de Virgin, Richard Banson, à celle de Steve Bannon, le journaliste de droite américain de War Room. De droite ou de gauche, croyants affichés ou athées, universitaires ou politiques et même Yuval Noah Harari, les premiers signataires sont d’accord pour dire que les dangers de la super IA sont énormes.

Ainsi Harari, professeur à la Hebrew University de Jérusalem, fait-il ce commentaire : « La superintelligence risquerait de détruire le système même qui régit la civilisation humaine, et elle est totalement inutile. Si nous nous concentrons plutôt sur la création d’outils d’IA contrôlables pour aider les gens d’aujourd’hui, nous pourrons profiter des incroyables avantages de l’IA de manière beaucoup plus fiable et sûre. »

 

La Déclaration pour l’interdiction de la superintelligence artificielle : une urgence

La superintelligence artificielle (ASI) – pour reprendre la définition donnée par IBM – « est un système logiciel hypothétique d’intelligence artificielle (IA) dont la portée intellectuelle dépasse l’intelligence humaine. Au niveau le plus fondamental, cette IA superintelligente possède des fonctions cognitives de pointe et des compétences de réflexion extrêmement développées, plus avancées que celles de n’importe quel être humain ».

Hypothétique dans la mesure où aujourd’hui, on ne dispose aujourd’hui que d’IA dite « faible », compétente seulement dans des domaines précis et étroits, ne fonctionnant que grâce à l’intervention humaine (toujours selon IBM), il y a pourtant de larges possibilités de progrès et les chercheurs et responsables de sociétés de développement de l’IA assurent qu’on y arrivera bel et bien.

L’exposé du « contexte » de la Déclaration, très concise, rédigée par l’Institut « Future of Life » qui travaille sur la réduction des risques de ce type de nouvelles technologies, affirme :

« Les outils innovants basés sur l’IA peuvent apporter une santé et une prospérité sans précédent. Cependant, outre ces outils, de nombreuses entreprises leaders dans le domaine de l’IA ont pour objectif déclaré de développer au cours de la prochaine décennie une superintelligence capable de dépasser considérablement tous les êtres humains dans la quasi totalité des tâches cognitives. Cela suscite des inquiétudes qui vont de l’obsolescence et de la perte de pouvoir économiques des humains, à la perte de liberté, de libertés civiles, de dignité et de pouvoir de contrôle, en passant par les risques pour la sécurité nationale et même l’extinction humaine potentielle. La déclaration succincte ci-dessous vise à faire connaître le nombre croissant d’experts et de personnalités publiques qui s’opposent à la course à la superintelligence. »

 

La Déclaration sur l’interdiction de la superintelligence artificielle

La Déclaration elle-même tient en quelques lignes :

« Nous appelons à une interdiction du développement de la superintelligence, laquelle ne sera pas levée avant que ne soit acquis
1. un large consensus scientifique quant à la sécurité de ce développement et à la possibilité de le contrôler, et
2. une forte adhésion du public. »

En tête des signataires, Geoffrey Hinton, l’un des « parrains » de l’IA, professeur émérite de science informatique, prix Nobel, 2e scientifique le plus cité au monde. En recevant son prix à Stockholm l’an dernier il insistait fortement sur les risques de l’IA en avertissant contre les armes autonomes létales qu’il considère déjà comme un danger à court terme, en l’absence même, donc, de l’ASI.

Mais l’autre chercheur gratifié du titre de « parrain de l’IA », Yoshua Bengio, est également en tête de liste ; précédemment, il a déjà signé un texte d’alarme.

Le nombre de professeurs d’université spécialistes de l’informatique et de l’IA ayant signé parmi les 1.000 premiers est impressionnant. On y trouve aussi des responsables religieux : le P. Paolo Benanti, professeur à l’Université pontificale grégorienne et conseiller du pape François en matière d’IA avant de devenir celui de Giorgia Meloni, sa perspective est éthique et spirituelle. Le New York Times assure de manière sibylline : « Il passe ses journées à penser au Saint-Esprit et aux esprits dans les machines. »

Anthony J. Granado, secrétaire général associé de la Conférence des évêques des Etats-Unis, et le P. Michael Baggot, professeur de bioéthique à l’Athenaeum Regina Apostolorum à Rome sont les autres catholiques en tête des signataires, où l’on trouve aussi des évangéliques, un bouddhiste, un sikh et bien d’autres.

 

La superintelligence artificielle est comme la promesse du démon : « Vous serez comme des dieux »

Il y a même, curieusement, le vice-président de Roche et co-président du Forum économique mondial, André Hoffman. Curieusement, parce que Davos milite à tout crin pour la « Quatrième révolution industrielle » qui repose sur le développement de l’IA.

Mais encore la compositrice Kate Bush, l’acteur britannique Stephen Fry, le dessinateur de presse Jason Chatfield du New Yorker, le journaliste italien Riccardo Luna…

Et encore Eduard Habsburg, ambassadeur de Hongrie près le Saint-Siège, le prince Harry et sa femme Meghan, de nombreux politiques de tous horizons…

Et même moi. La démarche est facile, cela se passe ici.

Les premières signatures sont entrelardées de résultats de sondages et de citations de spécialistes de l’IA. Ce fait est très parlant : selon une enquête d’opinion, seuls 5 % des adultes américains sont favorables au développement incontrôlé de l’IA ; 64 % pensent que l’IA surhumaine ne devrait pas être fabriquée avant que sa sécurité et la possibilité de la contrôler soient démontrées, ou ne doit pas être fabriquée du tout ; 73 % réclament une réglementation forte dans ce domaine.

Plusieurs signataires ont explicité leur démarche, comme Yoshua Bengio (déjà cité) qui écrit : « Les systèmes d’IA de pointe pourraient dépasser la plupart des individus dans la plupart des tâches cognitives d’ici à quelques années seulement. Ces progrès pourraient apporter des solutions à des défis mondiaux majeurs, mais ils comportent également des risques importants. Pour progresser en toute sécurité vers la superintelligence, nous devons déterminer scientifiquement comment concevoir des systèmes d’IA qui soient fondamentalement incapables de nuire aux personnes, que ce soit par un mauvais alignement ou une utilisation malveillante. Nous devons également veiller à ce que le public ait davantage son mot à dire dans les décisions qui façonneront notre avenir collectif. »

Il est assez optimiste pour penser qu’une super IA puisse être maîtrisée par l’homme ; mais du moins pointe-t-il clairement les dangers ?

Plus circonspect est Stuart Russell, professeur de science informatique à Berkeley : « Il ne s’agit pas d’une interdiction ni même d’un moratoire au sens habituel du terme. Il s’agit simplement d’une proposition visant à exiger des mesures de sécurité adéquates pour une technologie qui, selon ses développeurs, présente un risque important d’entraîner l’extinction de l’humanité. Est-ce trop demander ? »

 

« Les leaders technologiques construisent des bunkers apocalyptiques »

Quant à Mark Beall, ancien directeur de stratégie et de politique de l’IA au Département de la Défense américain sous Obama, il note : « Lorsque les chercheurs en intelligence artificielle mettent en garde contre l’extinction et que les leaders technologiques construisent des bunkers apocalyptiques, la prudence nous impose de les écouter. Une superintelligence sans garanties adéquates pourrait être l’expression ultime de l’orgueil humain : le pouvoir sans contrainte morale. » Un autre l’aurait dit, on l’eût taxé de complotisme.

De fait, face aux risques que présente la super IA et à la menace qu’elle représente pour l’ensemble de l’activité humaine – voire la destruction de l’humanité elle-même, les différentes appartenances politiques et même religieuses sont secondaires : quand la maison brûle, tous les pompiers sont les bienvenus…

La revue Futurism souligne cependant que l’IA « n’a pas besoin d’atteindre le stade de l’ASI pour provoquer le chaos » : « A l’heure actuelle, les outils d’IA générative tels que les chatbots et les outils de création d’images et de vidéos – des technologies primitives par rapport aux futurs systèmes d’IA superintelligents imaginés – bouleversent l’éducation, transforment le web en un environnement de plus en plus irréel et propice à la désinformation, accélèrent la création et la diffusion de pornographie non consensuelle et illégale, et plongent les utilisateurs de tous âges dans des crises de santé mentale et des ruptures avec la réalité qui ont entraîné des conséquences telles que le divorce, le sans-abrisme, la prison, les internements involontaires, l’automutilation et la mort. »

Mais quel espoir y a-t-il que la mobilisation des savants, des puissants et des gens ordinaires conduise réellement au salutaire « stop » au développement de l’IA, qui déjà prend la place des hommes, notamment par le biais des robots de plus en plus présents, surtout là où la population rétrécit ? D’autres initiatives en ce sens ont abouti à un résultat nul, souligne encore Futurism : ainsi, Sam Altman (OpenAI), Mustafa Suleyman (AI), Dario Amodei (Anthropic), et Elon Musk (xAI) n’ont-ils pas signé cet appel, mais ils avaient déjà signé une lettre de Future of Life Institute en 2023, demandant un moratoire sur le développement de ChatGPT-4. GPT5 a été commercialisé cet été…

 

Mais comment imposer l’interdiction de l’ASI à tous ?

Les intérêts en jeu sont gigantesques ; le moindre d’entre eux n’est pas la suprématie militaire, de telle sorte qu’une interdiction imposée mondialement n’engagerait de toute façon que ceux qui y adhèrent, poussant ceux-ci à tenter toujours de rester dans la course face aux adversaires moins scrupuleux.

Nous l’écrivions en juin dernier : alors que les grandes puissances s’affrontent sur ce terrain, « la seule solution envisageable est qu’elles y renoncent toutes en même temps, par un traité de désarmement analogue à ce qui se fait pour le nucléaire », pour éviter un retournement de l’IA contre l’homme dont nul ne saurait sortir indemne, à vues humaines. Or l’IA se « révolte » déjà, nous le savons, en « mentant », en dissimulant, en trichant pour parvenir à ses objectifs même lorsque des commandes expresses prétendent l’en empêcher.

Comme l’écrivait alors Pauline Mille : « La seule solution est un processus de désarmement simultané et synchronisé, fondé sur un minimum de confiance qui est au fond un calcul : si l’homme traite avec l’homme, il peut se faire avoir ; s’il laisse la main à l’IA, il est sûr de perdre et d’être éliminé. »

Il est encore temps. Et tout est bon à prendre dans cette lutte contre la destruction de l’humanité – qu’elle soit physique, ou qu’elle consiste à le mener à l’externaliser sa pensée, ce qui se fera toujours au détriment de son âme.

 

Jeanne Smits