Réunion à l’ONU sur la question des systèmes d’armes létales autonomes, ou « robots tueurs »

robots tueurs ONU systèmes armes létales autonomes réunion
 
L’ONU s’était engagée en 2013 à se pencher sur la question des systèmes d’armes létales autonomes, en réponse à la campagne internationale lancée par plusieurs ONG qui réclamaient leur interdiction. Aucune responsabilité politique ou juridique n’est aujourd’hui définie à propos de ces « robots tueurs » indépendants des hommes. La seconde réunion d’experts de l’ONU sur les questions relatives aux technologies émergentes dans le domaine des systèmes d’armes létales autonomes s’est penchée sur l’interdiction préventive de ces systèmes d’armes. Elle s’est tenue du 13 au 17 avril dernier, à l’Office de l’ONU de Genève.
 

Les systèmes d’armes létales autonomes capables de décider de tuer, sans intervention humaine

 
La question n’est plus de savoir si les robots vont entrer sur le champ de bataille : ils y sont déjà.
 
Des précurseurs de ces armes existent déjà et servent depuis des années : les drones commandés à distance en sont un exemple, tout comme le bouclier antimissile israélien « Dôme d’acier ».
 
Mais ces robots se développent si vite sur les plans scientifique, technique et de la fabrication qu’il s’agit désormais de déterminer le degré d’autonomie qu’on peut leur laisser. Les systèmes d’armes létales autonomes iront plus loin encore que tout ce qui existe : ils sont en mesure d’identifier leurs cibles et de prendre eux-mêmes la décision d’attaquer, sans intervention humaine.
 
Cette perspective suscite légitimement de vives inquiétudes, largement exprimées à Genève.
 
Les ONG craignent que les guerres ne soient « plus faciles » à mener avec des robots-soldats, et donc la multiplication des conflits à travers le monde.
 

A l’ONU, certains ont mis en garde contre de possibles affrontements entre « robots tueurs »

 
Certaines craignent également qu’à partir du moment où un pays se dote de tels robots, ses ennemis ne le suivent : on pourrait alors voir apparaître des affrontements entre systèmes d’armes, sans qu’il soit possible de « prédire scientifiquement » leur issue.
 
Autre inquiétude : peut-on attendre de ces robots qu’ils respectent le droit international, alors qu’ils ne peuvent faire preuve d’aucune intelligence de situation ?
 
Leurs défenseurs répondent que si les robots ne connaissent pas la compassion, ils ne sont pas plus animés par la haine. Signeront-ils la fin des crimes de guerre et autres viols ? En revanche, ils pourront tuer par erreur ou en masse des hommes bien moins rapides qu’eux…
 
Plusieurs ONG ont demandé que ces systèmes d’armes létales autonomes soient purement et simplement interdits. Il n’y a guère de chance que la demande aboutisse : de nombreux Etats souhaitent poursuivre l’étude du dossier, pour trancher au cas par cas. Ils affirment que le droit international est la référence suprême, et qu’il suffit de programmer respect chez les robots pour le respecter. Dialectique obligeant, nous aurons donc tant les robots tueurs que leur « contrôle » par l’ONU…
 
Béatrice Romée