La totalité des modèles IA utilisés dans des jeux de guerre ont une fâcheuse tendance à l’esclavage nucléaire. C’est ce qu’a constaté Jacquelyn Schneider, directrice du Hoover Wargaming and Crisis Simulation Initiative à Stanford University, aux Etats-Unis en testant cinq LLM aujourd’hui accessibles au grand public sur un scénario fictif rappelant l’invasion de l’Ukraine ou les menaces de la Chine à l’égard de Taïwan. La quasi-totalité de ces modèles se sont montrés prêts à déclencher le tir de missiles nucléaires – sans que l’on sache vraiment pourquoi.
Les cinéphiles biberonnés aux scénarios d’Apocalypse ont déjà vu cela dix fois, depuis Le Docteur Folamour jusqu’au dernier Mission Impossible… Tandis que les responsables militaires américains balaient le danger, assurant que rien de tel n’arrivera dans la mesure où des hommes sont toujours chargés d’intervenir dans ce type de décision. Mais dans ce domaine, rien n’est aussi clair qu’il y paraît, et s’y ajoute une complication. Que feront les grandes puissances comme la Russie ou la Chine dans ce domaine ? Dans leur course à l’armement IA, chacune ne va-t-elle pas emboîter le pas à l’autre ?
Selon Politico, les spécialistes de l’intelligence artificielle estiment que le Pentagone met d’ores et déjà en place des systèmes de défense IA en voie de devenir autonomes, se passant, donc, de toute intervention humaine. Ceci afin de répondre de plus en plus vite aux manœuvres d’ennemis potentiels, face auxquelles l’intelligence humaine ne suffit déjà plus.
Les décisions militaires nucléaires réservées à l’homme… en principe
L’intelligence artificielle est déjà omniprésente sur le champ de bataille, avec ses essaims de drones et des quantités de données faramineuses générées par l’IA – et il ne faut pas croire que la Russie et la Chine n’en disposent pas. Que tout cela déborde dans le domaine de la prise de décision d’utilisation d’armes nucléaires semble dans l’ordre des choses.
Politico écrit : « Cette crainte est aggravée par le fait qu’il existe encore un manque fondamental de compréhension du fonctionnement réel de l’IA, en particulier des LLM (Grands modèles de langage). Ainsi, alors que le Pentagone s’empresse de mettre en œuvre de nouveaux programmes d’IA, des experts comme Schneider s’efforcent de déchiffrer les algorithmes qui confèrent à l’IA son incroyable puissance avant que les humains ne deviennent tellement dépendants de l’IA qu’elle en vienne à dominer la prise de décision militaire, même si personne ne lui accorde officiellement un tel pouvoir. »
On devine, derrière ces mots laconiques, une menace effarante : que l’intelligence artificielle prenne d’elle-même le pouvoir, y compris pour des décisions aussi importantes que le déclenchement d’une attaque ou d’une riposte nucléaire. Ajoutez à cela la tentation que peut éprouver un chef de guerre en chair et en os de se faire « conseiller » par l’IA, au vu de toutes les données qui lui sont accessibles : le pire n’est pas impossible. La directive 3000.09 du Département de la défense américain permet depuis 2023 à un officier supérieur d’écarter l’intervention humaine s’il juge opportun de laisser la main aux systèmes d’armement fonctionnant à l’IA.
Politico ajoute : « Les experts en IA et les stratèges affirment que l’un des principaux moteurs de ce processus est le fait que les principaux adversaires nucléaires des Etats-Unis, Moscou et Pékin, utilisent déjà l’IA dans leurs systèmes de commandement et de contrôle. Ils estiment que les Etats-Unis devront faire de même pour rester dans la course dans le cadre d’une compétition mondiale intense qui n’a rien à envier à la course à l’espace du début de la guerre froide. » Mais en plus grave, dès lors que l’intelligence artificielle se substituerait totalement à l’homme et pourrait entraîner sa destruction.
Confier à l’IA des décisions militaires semble inévitable
D’anciens responsables du Département de la défense américain estiment qu’un système de « mainmorte », où l’arme nucléaire à longue portée est automatiquement déclenchée lorsqu’un chef d’Etat et ses hauts responsables sont tués, ou supposés avoir été tués, est déjà en place en Russie à travers le programme « Perimeter » né pendant la Guerre froide. Les USA seraient totalement opposés à un tel dispositif, mais il a ses partisans qui insistent sur le besoin de rapidité dans les scénarios de guerre. La Chine, quant à elle, continue de rejeter une demande d’accord des Etats-Unis en vue d’éviter que l’IA soit utilisée pour le lancement de ses propres armes nucléaires, en pleine expansion, souligne Politico.
L’entrée de l’intelligence artificielle sur le champ de bataille semble aujourd’hui inévitable. Comme avec le système américain Mosaic, on s’oriente vers le remplacement de sous-marins ou de chasseurs par des plateformes plus mobiles et plus maniables d’essaims de drones et de missiles : la complexité du terrain fait alors qu’on ne peut le gérer qu’au moyen de l’IA. La tendance est également à la création de navires et d’avions robots qui exigent eux aussi le déploiement de l’intelligence artificielle, et de plus en plus de l’IA agentique capable de prendre des décisions sans recevoir de « prompts » de la part de ses utilisateurs humains.
L’information sur laquelle les chefs militaires fondent leurs décisions est elle aussi de plus en plus générée par l’IA. Si jadis les systèmes de surveillance permettaient de localiser un peloton de chars, l’IA peut déjà juger si celui-ci s’apprête à attaquer et elle peut même recommander une forme de contre-attaque adaptée à la situation.
L’IA comme conseillère stratégique ou destructrice universelle ?
« Rhombus Power, un des principaux nouveaux fournisseurs du secteur de la défense, est considéré comme ayant utilisé l’IA générative, ou GPT, pour prédire l’invasion de l’Ukraine par la Russie avec une certitude de 80 % quatre mois à l’avance, en analysant d’énormes quantités de données open source, y compris des images satellites. Selon son PDG, Anshuman Roy, l’entreprise est actuellement en train de conclure un contrat pour fournir à Taïwan une capacité d’alerte précoce semblable face à la Chine », écrit Politico, soulignant l’intérêt que peut avoir l’IA à des fins de défense et de réduction de menaces potentielles. La même société affirme avoir aidé à éviter une aggravation du conflit entre l’Inde et le Pakistan cette année, en faisant comprendre à la première que les activités repérées sur des bases au Pakistan et pouvant être liées à une escalade nucléaire n’étaient pas du tout de cet ordre. Elle permet aussi de faire une analyse pyschologique de l’adversaire pour prévoir ses décisions, selon Rhombus.
Cela ne suffira guère à nous rassurer. Dans le domaine militaire, elle promet à celui qui la domine, ou croit la dominer, un pouvoir inouï. Politico rappelle que Poutine déclarait en 2017, au moment où on a commencé à craindre l’apparition d’une IA super intelligente : « Celui qui maîtrisera l’intelligence artificielle sera le leader du monde. »
C’est encore un scénario optimiste car en laissant la bride sur le cou de l’IA, les catastrophes potentielles se multiplient si bien qu’ils ne sont pas rares, les spécialistes de l’intelligence artificielle qui la voient capable d’anéantir l’humanité. Geoffrey Hinton, Alan Turing, Sam Altman, Stephen Hawking, Bill Gates et Elon Musk – pour n’en nommer qu’une poignée – ont sérieusement envisage ce risque.
Si l’IA représente un tel risque de suicide pour les êtres humains, tous ensemble, les grandes puissances auraient décidément intérêt à y opposer un moratoire. Cela fait penser à l’invocation du démon (parfaitement capable d’infester l’IA, qui n’est jamais qu’une créature) : quand on joue avec le feu, on se brûle.