Le Sénat italien a accueilli la semaine dernière un colloque sur les armes létales autonomes sous l’égide de l’ONG internationale « Stop Killer Robots », un événement répercuté par le site d’informations officiel du Vatican, Vatican News, et auquel ont notamment assisté le président émérite de l’Académie pontificale pour la vie, Mgr Vincenzo Paglia, et d’autres représentants de l’Eglise. Le colloque avait pour objectif de mettre en garde contre les avancées des systèmes d’armes autonomes fonctionnant grâce à l’intelligence artificielle dont les progrès laissent envisager une escalade du danger nucléaire, que nous avons déjà évoquée dans nos colonnes.
Les participants au colloque ont jugé urgent la mise en place d’un veto international à force juridique contraignante sur ce type d’armes capables de sélectionner et d’attaquer des objectifs sans le contrôle déterminant d’un être humain, après avoir réfléchi sur la question de savoir s’il est licite qu’une machine puisse prendre des décisions de vie et de mort. A ce sujet Nicole van Rooijen, directrice exécutive de la campagne « Stop Killer Robots », a affirmé que le fait de déléguer de telles décisions à des machines constitue une « fracture étatique inacceptable » qui au demeurant garantit de fait l’impunité en cas de crimes de guerre.
« Stop Killer Robots » : contre les armes létales autonomes
Mgr Vincenzo Paglia a quant à lui déclaré au cours de son intervention : « Nous devons empêcher que la technologie échappe au contrôle moral et juridique de l’être humain », mettant en garde contre le risque d’une escalade nucléaire liée à l’utilisation de l’IA.
Avant d’aller plus loin, il faut souligner cependant les interrogations que peut soulever cette initiative, tenant aux personnes, aux organisations impliquées et à l’efficacité d’un éventuel traité contre les armes létales autonomes.
Ainsi, Mgr Paglia n’est pas un modèle d’orthodoxie doctrinale et son progressisme ne fait aucun doute. Les ONG que regroupe « Stop Killer Robots » incluent des organisations comme Amnesty International, Human Rights Watch, et bien d’autres plutôt classées à gauche, ainsi que divers groupes pour le désarmement qui ont généralement eu en commun de servir des objectifs communistes ou international-socialistes. Ce qui ne les empêche pas à l’occasion de pointer de vrais dangers…
Le Vatican représenté lors d’un colloque au Sénat Italien
En réclamant des solutions « globales » ces initiatives utilisent le même langage que celui employé face à des menaces « existentielles » comme le réchauffement climatique, le covid et d’autres dangers dont on nous explique qu’ils ne peuvent être confrontés qu’au niveau supranational – et qui servent ainsi de vecteurs d’un mondialisme prétendument inévitable pour le bien de l’humanité.
Par ailleurs, un traité international garantirait-il vraiment contre la menace que représente l’IA, notamment sur le plan militaire ? La « course à l’armement » dans ce domaine est aussi le corollaire des avancées des grandes puissances et du danger qu’il y a à se laisser distancer ; et comment être sûr que l’une d’entre elles ne continue sur ce chemin même en protestant qu’elle ne le fait pas ?
Il faut donc avoir tout cela à l’esprit, mais il reste que l’humanité se trouve ici devant une nouveauté absolue vu ce dont les armes IA sont déjà capables, et les développements qui sont à craindre. Il a ainsi été souligné lors du colloque que le développement de l’IA peut être utilisé dans des secteurs « liés à l’ordre public ou à la lutte contre les migrations », comme l’a signalé Riccardo Noury d’Amnesty International Italia. « En l’absence de règles claires et contraignantes, a-t-il averti, le risque est une utilisation indiscriminée de ces technologies, avec des effets dévastateurs sur les civils et l’accès à la justice pour les victimes », rapporte VaticanNews.
« Stop Killer Robots » : une ONG de gauche, mais un vrai problème
Tommaso Natoli, responsable de l’unité opérationnelle du droit international humanitaire de la Croix-Rouge italienne, a souligné que des principes fondamentaux tels que la distinction entre civils et combattants et la protection des populations civiles ne peuvent être garantis si le choix des cibles est confié à des systèmes autonomes.
Il est vrai que l’IA laisser entrevoir des possibilités inédites pour les Etats tyrans et les systèmes totalitaires. Il convient aussi de se rappeler combien de chercheurs dans le domaine de l’IA mettent en garde contre la menace mortelle – allant jusqu’à un risque réel d’extinction de l’humanité – que représenterait une IA rebelle…
La seule solution, écrivait Pauline Mille sur notre site en juin dernier, est un « égoïsme salvateur » face à la révolte de l’IA contre l’homme qui menace jusqu’à ceux qui en sont (ou s’en croient) les maîtres. Un « désarmement mondial », oui, mais d’abord dans l’intérêt de ceux-là même qui s’arment.
Elle concluait, après avoir détaillé des cas de révolte avéré de l’IA contre des règles que lui imposent ses utilisateurs :
« Restons dans la réalité d’aujourd’hui et soyons concret : la Chine investit massivement dans l’IA (plus de huit milliards de dollars). Dans cinq ans, il y a de fortes chances qu’elle ait produit un monstre retors, qui, de dissimulation en dissimulation et de désobéissance en désobéissance, aura pris à son compte la direction occulte de son arsenal nucléaire et pourra la diriger à son gré, sa première cible potentielle étant Pékin. On voit donc qu’au nom de leur propre sécurité, les détenteurs d’IA très évoluées doivent les sacrifier, par un geste d’égoïsme salvateur. Mais tous craindront bien sûr que leurs concurrents humains poursuivent leur expérience de l’IA et ne les surclassent économiquement et militairement. La seule solution est un processus de désarmement simultané et synchronisé, fondé sur un minimum de confiance qui est au fond un calcul : si l’homme traite avec l’homme, il peut se faire avoir ; s’il laisse la main à l’IA, il est sûr de perdre et d’être éliminé. »











