Yudkowsly et Soares : la superintelligence IA a toutes les chances de détruire l’humanité

superintelligence IA détruire humanité
 

L’humanité fait face à un danger absolument sans précédent, et la menace est même si importante qu’il faudrait la contrer avec des mesures radicales. Il s’agit de la superintelligence artificielle, l’IA superintelligente, actuellement en voie de construction par les développeurs qui annoncent pouvoir fabriquer ainsi, à plus ou moins brève échéance, une intelligence dépassant, et de très loin, celle des hommes. Pour Eliezer Yudkowsky et Nate Soares, auteurs d’un nouveau livre, If Anyone Builds It, Everyone Dies (« Si quelqu’un la construit, tout le monde mourra »), le danger est de voir de telles machines « penser » à une vitesse vertigineuse, faisant en seize heures des calculs qu’un homme mettrait 14.000 années à réaliser. Le risque est bien réel, selon ces deux auteurs, de voir les super-IA se retourner contre l’homme, devenu inutile voire nuisible.

La probabilité d’une telle destruction pure et simple de l’humanité serait d’entre 95 et 99,5 %, assurent-ils : « Si une entreprise ou un groupe, où que ce soit sur la planète, construit une superintelligence artificielle en utilisant des techniques qui s’apparentent de près ou de loin aux techniques actuelles, sur la base d’une compréhension de l’IA qui s’apparente de près ou de loin à celle que nous avons aujourd’hui, alors tout le monde, partout sur Terre, mourra. »

 

Yudkowsly et Soares ne sont pas des écrivains de science-fiction

Ce n’est ni un scénario de James Bond, ni l’argument de quelque roman de science-fiction. Yudkowsky et Soares ne sont pas des « technosceptiques ». Ce sont deux universitaires reconnus qui sont à la tête du Machine Intelligence Research Institute à Berkeley en Californie. Et cela fait désormais 25 ans que l’IA est l’objet de leurs études.

Ils pointent plusieurs faiblesses dans la construction, ou plutôt dans « l’élevage », à coups de nourrissage au moyen de données, de l’intelligence artificielle. La première est que nul ne sait comment fonctionne vraiment l’IA, dont les hallucinations, mais aussi les manipulations et les mensonges montrent déjà aujourd’hui qu’elle est difficile à maîtriser. Pour eux, cela veut probablement dire qu’une superintelligence artificielle sera impossible à contrôler.

Un autre problème inhérent à l’intelligence artificielle est justement qu’elle n’est pas humaine, et dépourvue, donc, de sens moral et d’empathie. De tout ce qui fait qu’un homme devrait agir en fonction du bien, pourrions-nous ajouter…

Sous sa forme actuelle, l’IA montre déjà qu’elle est prête à mille subtilités pour parvenir à son but, agissant contre la volonté des programmeurs ou contournant les difficultés, voire en refusant de s’éteindre lorsqu’elle en reçoit l’ordre.

 

La superintelligence fera le mal avec ou sans malice

Sous l’empire de l’IA super intelligente, des décisions destructrices pourraient être prises même sans « malice ». Si une IA pouvait effectivement prendre la décision d’éliminer l’humanité, par exemple en répandant un cancer viral, rapide et intraitable – c’est l’hypothèse des auteurs – cette destruction pourrait aussi être un simple effet secondaire d’une action faite par « inadvertance ».

Yudkowsky et Soares pensent que les capacités d’une IA super intelligente, alimentée par des quantités de données faramineuses et connaissant parfaitement tous les systèmes de protection en ligne, pourrait lui permettre de prendre le pouvoir sur d’autres ordinateurs, lui permettant d’amplifier son pouvoir et sa domination. L’IA aurait aussi la capacité de « miner des cryptomonnaies, ou de la voler, lui permettant de passer commande auprès d’ingénieurs humains pour construire des usines capables de fabriquer des puces électroniques, des robots et des machines qui lui seraient asservies ».

« Cette IA superintelligente », envisagent-ils encore, « pourrait finir par fonctionner en autonomie totale en organisant le traitement des métaux, la construction de centres de données et même celle de centrales énergétiques capables d’alimenter son besoin vorace d’électricité. Pendant ce temps, elle pourrait plier la volonté de ceux qui viennent chercher conseil et compagnie auprès de ses chatbots, les transformant en complices consentants de ses plans. Et passer ensuite à la colonisation des réseaux sociaux, pour diffuser des informations fictives et lance des mouvements politiques favorables à l’IA. »

 

L’IA superintelligente affole de nombreux spécialistes

Simple élucubration de scientifiques en mal de reconnaissance ou ayant abusé de la fumette ? Pas vraiment. C’est avec toute leur réputation de sérieux que les auteurs, fort respectés, ont écrit leur livre, et leurs mises en garde rejoignent celle de nombreux autres connaisseurs et spécialistes de l’intelligence artificielle, à commencer par son pionnier Geoffrey Hinton. Ce dernier assurait le mois dernier que l’IA permettra bientôt à n’importe qui de construire des armes biologiques mortelles.

« L’humanité doit mettre le holà », préviennent-ils, assurant qu’il faut mettre fin à la recherche menée par des sociétés avides de profits qui ignorent la nécessaire sécurité pour être les premiers à atteindre le dépassement de l’intelligence humaine par la machine, sous prétexte de progrès économique ou d’avancée médicale. L’intelligence artificielle est en effet « vendue » comme étant bénéfique pour l’homme. Le contraire semble bien plus probable.

Yudkowsky et Soares estiment que le danger atteint de telles proportions que les gouvernements devraient se tenir prêts à bombarder les centres de données alimentant toute IA jugée capable d’atteindre la superintelligence.

En somme, ils estiment urgent de déclarer la guerre à l’IA superintelligente. Pour eux, il n’y a pas de commune mesure entre les dangers du réchauffement climatique (dont on nous rebat les oreilles) et ceux d’une intelligence artificielle dont la production fait penser le philosophe Nick Bostrom de l’université d’Oxford « à de petits enfants qui jouent avec une bombe ».

L’humanité a encore une chance de garder cette boîte de Pandore fermée.

 

Anne Dolhein