L’ex-PDG de Google, Eric Schmidt, compare l’intelligence artificielle (IA) à la bombe atomique

Schmidt IA bombe atomique
 

L’ancien PDG de Google, Eric Schmidt, vient de déclarer lors d’un sommet sur l’intelligence artificielle que le monde manque actuellement de garde-fous capables d’empêcher cette nouvelle technologie de provoquer des dommages catastrophiques. Il a même comparé l’IA aux bombes atomiques lâchées sur Hiroshima et Nagasaki par les Etats-Unis en 1945, tout en proclamant son « optimisme » quant aux bénéfices qu’elle pourra offrir en tant que « médecin ou tuteur ».

Schmidt assure actuellement la présidence de la National Security Commission on Artificial Intelligence, une agence gouvernementale américaine. La page d’ouverture du site de la NSCAI donne le ton avec cette citation de son président :

« Nous avons vu l’IA offrir conversation et réconfort aux personnes seules ; nous avons également vu l’IA se livrer à la discrimination raciale. Pourtant, le plus grand préjudice que l’IA est susceptible de causer aux individus à court terme est le déplacement d’emplois, car la quantité de travail que nous pouvons automatiser grâce à l’IA est considérablement plus importante qu’auparavant. En tant que dirigeants, il nous incombe à tous de nous assurer que nous construisons un monde dans lequel chaque individu aura la possibilité de s’épanouir. »

Eric Schmidt participait à un sommet organisé par le média Axios qui s’est donné pour objectif de couvrir de manière honnête et fiable les thèmes qui vont façonner l’avenir, en s’engageant notamment à ne jamais produire de contenus en ayant recours à l’IA ou aux robots.

 

L’IA remise en question par l’ex-PDG de Google

Il s’est montré très alarmiste en assurant que l’intelligence artificielle sera en mesure de mettre l’humanité en danger dans les 5 à 10 ans à venir. Le danger se manifestera concrètement, selon l’ex-PDG de Google, « au moment où l’ordinateur sera capable de décider de lui-même d’agir ». Il a donné l’exemple d’un système qui découvre comment accéder aux armes et où il ne serait pas possible de savoir s’il dit la vérité. Il y a deux ans, insiste Schmidt, les experts pensaient que ce moment ne serait atteint que d’ici à une vingtaine d’années. Certains le pensent aujourd’hui bien plus proche : dans deux ou quatre ans tout au plus.

« Après Nagasaki et Hiroshima, il a fallu 18 ans pour signer un traité interdisant les essais nucléaires et assimilés. C’est un délai dont nous ne pouvons pas disposer aujourd’hui », a déclaré Eric Schmidt.

 

Eric Schmidt propose plus de globalisme

Qu’il ait raison ou qu’il ait tort, la mise en garde du président de la NSCAI ne tient pas compte du fait que les progrès de l’intelligence artificielle, quel que soit leur rythme, ne vont pas être effacés d’un trait de plume par un traité international. Il se peut que certains pays s’y conforment. Mais d’autres, non ; sans compter les armées et les services secrets…

La solution proposée par Schmidt est parfaitement dans l’air du temps. Il propose de créer une entité globale comparable au GIEC chargée de « nourrir les décideurs politiques d’informations exactes » afin qu’ils puissent comprendre les urgences du moment et agir.

Entité globale : face aux dangers que posent les développements de l’intelligence artificielle, la proposition de mettre en place des instruments sur un modèle aussi critiquable que le GIEC en matière de climat, avec des mécanismes qui vont entraîner de nouvelles atteintes à ce qui reste de souveraineté nationale, est déjà idéologiquement chargée.

 

La bombe atomique ? Au moins elle était déclenchée par un être humain…

Que l’IA pose un grand, un énorme problème pour l’humanité n’est pas contestable. Lorsqu’Eric Schmidt évoque la bombe H, l’illustration est certes parlante mais elle ne correspond pas à la réalité, car il fallait une décision humaine et une main humaine pour mettre en œuvre une attaque nucléaire contre la population civile du Japon. Bien sûr, on ne doute pas qu’il se trouve des hommes pour utiliser l’IA contre l’homme en la plaçant au-dessus des êtres humains, de leur travail, de leur intelligence et de leur conscience. Mais plus gravement encore, l’intelligence artificielle, dont les capacités de raisonnement logique vont fatalement dépasser celles de l’homme, « décidera » un jour seule.

Et si elle décide, « seule », d’agir de manière destructrice contre l’humanité, parce que des hommes ont ouvert la boîte de Pandore et alimenté le mauvais esprit qui l’habitait, on n’aura pas seulement la preuve que ses concepteurs ont mal calculé leurs algorithmes. On saura que l’humanité a commis une transgression majeure en ouvrant la porte au mal.

 

Anne Dolhein