L’IA rebelle et l’arme nucléaire : un mix terrifiant

IA rebelle arme nucléaire
 

L’affaire est suffisamment sérieuse pour que des prix Nobel et des experts de la guerre nucléaire se déplacent au creux de l’été pour discuter des risques que comporterait l’interpénétration de la bombe atomique et de l’IA : nul ne sait aujourd’hui quelles pourraient être les conséquences de l’introduction de l’intelligence artificielle dans l’arsenal nucléaire. Est-on face à une menace existentielle pour l’humanité ? Si oui, elle est d’un tout autre ordre et d’une tout autre nature que celle quotidiennement brandie par le pouvoir et les médias du « changement climatique » arbitrairement et faussement attribuée à l’activité humaine. Avec l’IA, on est face à une puissance inédite et colossale, fabriquée de main d’homme mais incomprise par lui. Une puissance qui peut devenir rebelle…

Lors de la rencontre qui a eu lieu à huis-clos à la mi-juillet à l’université de Chicago, scientifiques et experts ont évoqué la « fin du monde », pour reprendre l’expression de Wired. Les experts n’ont aucun doute sur ce fait : la question n’est pas de savoir si, mais quand l’IA fera son entrée dans le système des armes nucléaires. Un peu comme l’électricité a tout envahi, comme l’a expliqué Bob Latiff, ancien officier général des Forces aériennes des USA, et spécialiste du nucléaire, à l’occasion de la conférence de presse organisée à la fin de la rencontre. D’autres évoquaient cette « inévitabilité » de la présence de l’IA dans l’armement.

 

L’IA rebelle a déjà pris le contrôle contre des injonctions humaines

Mais alors que tous semblent s’accorder sur le fait que toute décision relative au déclenchement de « la bombe » doit impérativement revenir à l’homme – et que la rencontre avait pour objectif de faire des recommandations politiques sur la manière d’éviter la guerre nucléaire – on comprend que cela ne suffit plus, parce que l’IA pourrait prendre le contrôle.

Sur le plan humain, l’équilibre de la terreur ou la force de dissuasion nucléaire a fait ses preuves, après les cataclysmes d’Hiroshima et de Nagasaki dont nous venons de commémorer, les 6 et 9 août, le 60e anniversaire. Celui qui déclenche une telle attaque contre une autre puissance nucléaire sait devoir attendre une réponse en nature, aussi dévastatrice pour l’agresseur qu’elle l’a été pour l’agressé. L’IA ne s’encombre pas d’une telle peur. Ni de souci pour la vie humaine.

Voilà qui est d’autant plus inquiétant que les experts, responsables et anciens responsables qui ont discuté à Chicago avouent ne pas bien savoir de quoi on parle.

« La conversation sur l’IA et les armes nucléaires est entravée par quelques problèmes majeurs. Le premier d’entre eux est que personne ne sait vraiment ce qu’est l’IA », a ainsi déclaré Jon Wolfsthal, qui s’occupe de « non-prolifération » en tant que directeur des risques globaux à la Federation of Americain Scientists.

 

« Personne ne sait vraiment ce qu’est l’IA »

L’IA, pouvait-on penser, c’est un ordinateur qui fonctionne en faisant tourner des logiciels et en appliquant des algorithmes ; n’est-elle pas un artefact humain ? Voilà que ce n’est pas si simple. Or si l’IA n’est pas un ordinateur, ou le simple fruit du fonctionnement d’un ordinateur, qu’est-elle donc ? Avec qui, avec quoi « parle »-t-on en communiquant avec un LLM (grand modèle de langage), si ce n’est cet artefact que nous sommes supposés maîtriser ? Avec les esprits, comme l’affirmait récemment le Dr Laurent Alexandre ? Et quels esprits, profitant de la prise en main de la matière ?

Herb Lin, professeur à Stanford, a répondu à sa façon : « Que signifie le fait de donner le contrôle d’une arme nucléaire à l’IA ? (…) Une partie du problème, c’est que les LLM ont repris le débat à leur compte. »

Il semblerait que personne, à Chicago, ne pense que cela puisse passer par l’obtention des codes nucléaires dans un avenir prévisible. Mais cela s’affirme plutôt en disant que l’homme « doit » garder le contrôle. Mais d’un autre côté on utiliserait volontiers dans les milieux concernés des « ordinateurs interactifs » capables de « prévoir » ce que feraient Poutine ou Xi dans des situations données à partir de l’analyse de leurs déclarations, faits et gestes antérieurs. Sans aucun moyen de juger de la sincérité de ceux-ci, observe Wolfsthal.

Or le problème qui surgit alors est que l’IA, utilisée comme aide à la décision, peut peser sur les décisions prises par les responsables humains.

 

Le mix IA-arme nucléaire est explosif pour tous

Wolfsthal, qui ne croit pas en l’éventualité d’une décision de déclenchement prise par l’IA de manière autonome, souligne néanmoins qu’en l’intégrant pour automatiser certains processus du système, celui-ci souffre dès lors d’une vulnérabilité exploitable par l’adversaire, voire que l’IA produise des recommandations que les décisionnaires – qui doivent s’appuyer sur une multitude de données et d’alertes précoces qu’il faut savoir interpréter – comprennent mal, jusqu’à prendre de « mauvaises décisions ». Plusieurs personnes participent ensuite à la mise en œuvre, faite d’une multitude de décisions humaines (aux Etats-Unis il faut deux personnes pour lancer une arme depuis un hangar donné, actionnant deux clefs de concert).

« Que se passera-t-il lorsque l’IA prendra le contrôle sur une partie de ce processus ? », s’interroge l’expert, qui évoque la difficulté de confirmer, sans constat humain, le déclenchement d’une attaque nucléaire par un adversaire. De son côté Bob Latiff souligne qu’il faut de l’expérience de formation humaine et un bon jugement humain pour prendre des décisions dans ce domaine – et cite l’exemple de ce lieutenant-colonel soviétique, Stanislav Petrov, qui prit sur lui en 1983, fort de ses connaissances y compris psychologiques, de ne pas réagir à une alerte d’attaque en jugeant que les systèmes s’étaient forcément trompés en annonçant que cinq missiles américains avaient été lancés contre l’URSS. L’IA serait incapable d’un tel jugement.

Ce n’est au demeurant pas sa seule faiblesse, du point de vue humain. Les exemples abondent désormais d’IA qui ne respectent pas les frontières qui leur ont été imposées par l’homme, ce qui interdit de pouvoir affirmer avec certitude que l’IA ne retournera pas des armes, et en particulier des armes nucléaires, contre l’humanité.

 

Mettre de l’IA partout

Victor Tangermann de Futurism.com souligne que les risques sont mal compris à l’heure actuelle, et que cela peut avoir des conséquences dramatiques quand on confie la sauvegarde d’armes nucléaires à l’IA. Et de citer Eric Schmidt, ancien PDG de Google, qui avait mis en garde contre une « IA de niveau humain » qui pourrait ne plus être incité à « nous écouter » : « Les gens ne comprennent pas ce qui se passe lorsqu’on est face à une intelligence à ce niveau. »

A l’heure actuelle, les Etats-Unis « mettent de l’IA partout », souligne l’article. On peut être sûr que la Chine n’en fait certainement pas moins, et la Russie se rêve en leader de l’intelligence artificielle. Mais les risques de l’IA couplée avec la force nucléaire ne visent pas telle ou telle nation de manière univoque : ils visent l’humanité dans son ensemble. Au point que l’idée d’un « désarmement » de l’IA, « simultané et synchronisé », devient la seule solution.

 

Jeanne Smits