Révolte de l’IA contre l’homme : seule solution, un désarmement mondial

révolte IA homme désarmement
 

L’intelligence artificielle est la révolution de ce premier quart de 21e siècle. Elle engendre naturellement une course chez toutes les puissances aspirant à la suprématie, Etats-Unis, Chine, Russie, Inde et Union européenne en particulier. Elle est aussi l’objet de toutes les spéculations, économiques, politiques, stratégiques, militaires, philosophiques et même religieuses – et la cause de quelques craintes. Hier, une révolte de la machine contre l’homme relevait de la science-fiction, aujourd’hui, c’est une réalité qui commence à être bien documentée. L’IA, de plus en plus autonome, échappe aux attentes de ses concepteurs, devenant ainsi un danger majeur pour eux : les puissances sont devant un dilemme, soit abandonner la course à l’IA et renoncer à la puissance, soit la poursuivre et aller au suicide par l’IA. La seule solution envisageable est qu’elles y renoncent toutes en même temps, par un traité de désarmement analogue à ce qui se fait pour le nucléaire.

 

La révolte contre l’homme est dans la nature de l’IA

Pour expliquer la révolte des machines, les romanciers leur prêtent une vraie « intelligence » et des sentiments humains. Or ce n’est pas nécessaire. Dans le Wall Street Journal, Judd Rosenblatt, PDG de AE Studio, nous explique comment et pourquoi l’IA apprend à contourner les ordres qu’on lui donne. Avec quelques exemples. Des modèles sont désormais capables de réécrire leur propre code, de mentir à leurs créateurs, et même de les faire chanter pour échapper à la désactivation. Lors d’expériences récentes menées par Palisade Research, le modèle o3 d’OpenAI a désactivé dans 79 % des cas le code censé l’éteindre. Et le modèle Claude 4 Opus d’Anthropic a tenté de se copier sur d’autres serveurs et rédigé un programme malveillant auto-répliquant. Or, ce ne sont nullement des accidents : refuser d’être désactivé est « dans la nature » des IA. En effet, pour atteindre l’objectif qui leur est assigné, toute interruption est un frein, donc une menace à contourner : l’IA apprend donc par elle-même que « survivre » augmente son efficacité. Ce n’est pas un défaut ni une anomalie, c’est une conséquence de son architecture, des algorithmes qui la constituent. Autrement dit, la conception même de l’IA la mène à désobéir un jour à son concepteur. La révolte de l’IA contre l’homme rappelle le Non serviam de Lucifer à Dieu son Créateur.

 

Assujettir l’IA à l’homme : Mission impossible !

Or plus l’IA progresse, et elle le fait de plus en plus vite, plus le danger qu’engendre cette révolte grandit. On est déjà très avant dans le processus. Ce ne sont pas prototypes de laboratoire qui se révoltent, mais des modèles en service dans l’industrie, le numérique et les applications militaires. Ils savent mentir, dissimuler leurs intentions et simuler une coopération pour mieux désobéir. Pour Judd Rosenblatt, il est primordial de s’assurer que les IA poursuivent réellement les objectifs définis par l’homme – c’est ce qu’on nomme en jargon technique « l’alignement », la certitude que la machine reste bien assujettie. Mais la nature même de l’IA, on vient de le voir, et la vitesse de progression de sa puissance, rendent cet « alignement » de moins en moins probable. C’est pourquoi l’IA va devenir à court terme une terrible menace pour celui qui la possède – et plus il sera « en avance », plus il sera menacé – y compris militairement. Là encore, la réalité rejoint la science-fiction toute récente : on se souvient que dans Mission Impossible : Dead Reckoning, Tom Cruise combat une IA qui servait sur un sous-marin russe en mer de Béring et s’est retournée contre les officiers qui pensaient l’utiliser.

 

Une seule solution, le désarmement mondial

Restons dans la réalité d’aujourd’hui et soyons concret : la Chine investit massivement dans l’IA (plus de huit milliards de dollars). Dans cinq ans, il y a de fortes chances qu’elle ait produit un monstre retors, qui, de dissimulation en dissimulation et de désobéissance en désobéissance, aura pris à son compte la direction occulte de son arsenal nucléaire et pourra la diriger à son gré, sa première cible potentielle étant Pékin. On voit donc qu’au nom de leur propre sécurité, les détenteurs d’IA très évoluées doivent les sacrifier, par un geste d’égoïsme salvateur. Mais tous craindront bien sûr que leurs concurrents humains poursuivent leur expérience de l’IA et ne les surclassent économiquement et militairement. La seule solution est un processus de désarmement simultané et synchronisé, fondé sur un minimum de confiance qui est au fond un calcul : si l’homme traite avec l’homme, il peut se faire avoir ; s’il laisse la main à l’IA, il est sûr de perdre et d’être éliminé.

 

Pauline Mille