Pentagone : les soldats-robots entrent en guerre. Les Etats-Unis risqueront de moins de vies, mais quid de la responsabilité morale ?

Soldats robots Etats Unis Pentagone guerre responsabilité morale
 
Le Département de la défense des Etats-Unis s’apprête à investir un milliard de dollars pour déployer des soldats-robots sur les théâtres d’opération aux côtés, et éventuellement à la place, des troupes humaines. Pour Bryan McVeigh, colonel en retraite qui dirige les projets de protection des forces, « Dans les cinq années à venir, il ne fait aucun doute que les formations armées incluront des robots ». Déjà, ces dix-huit prochains mois, quelque huit cents robots militaires vont être mis en service par le Pentagone. Les deux grandes entreprises à s’être partagé la plus grosse part de la commande sont la branche américaine du conglomérat basé en Grande-Bretagne QinetiQ and the Chelmsford, et Endeavor Robotics dont le siège est dans le Massachusetts. Ces soldats-robots promettent d’économiser des vies pendant les guerres mais, en limitant les risques de pertes humaines, posent la grave question de la responsabilité morale personnelle de combattants exemptés de risquer leur vie.
 

Les UGV, des soldats-robots déjà testés en guerre par les Etats-Unis

 
« Jusqu’ici, les robots, on ne faisait qu’en parler ; aujourd’hui on lance des programmes de construction et de mise en service », explique Bryan McVeigh. Chaque constructeur de soldats-robots se vante de détenir une clientèle mondiale. Endeavor Robotics affirme être le premier fournisseur au monde d’UGV, les Unmanned Ground Vehicles, déjà testés en guerre. L’entreprise a fourni 6.500 robots à plus de quarante pays et propose des solutions de robotique aux forces de défenses, américaines ou internationales, aux forces de maintien de l’ordre, aux industriels et au secteur de l’énergie. QinetiQ fournit une expertise en test et évaluation parallèlement à des produits technologiques : « Nous fournissons à la fois des services et des produits (…) et travaillons principalement dans les secteurs de la défense, de la sécurité et de l’aérospatiale avec pour principale clientèle des organisations gouvernementales, dont les ministères de la Défense, ainsi que des clients internationaux dans d’autres secteurs spécifiques ».
 

Le risque que leur programmation fasse obéir les soldats-robots au seul constructeur ne semble pas inquiéter le Pentagone

 
Si l’on examine les contrats du Pentagone avec les fabricants de robots, il semble que demeure un premier risque : celui que les androïdes armés puissent trahir leurs officiers humains en se soumettant à la programmation de leur constructeur plutôt qu’au drapeau du pays qui les utilise. Nonobstant cette réserve de taille, le Pentagone explore de nouveaux domaines d’utilisation pour sa toute dernière génération de robots. Pendant les combats en Irak et en Afghanistan, le Département américain de la Défense a utilisé plus de 7.000 robots, généralement dotés d’une structure leur permettant de neutraliser les mines.
 
L’approche actuelle de l’armée américaine vise à déployer sur le champ de bataille des robots interopérables dotés d’un châssis standard qui permet d’y installer différents types de capteurs et d’équipements opérationnels, ainsi que des systèmes de contrôle standardisés pour différents types de plateformes, explique Bryan McVeigh. Sean Bielat, chef de projet, explique que ces « différents types de plateformes » comprennent des armements mais qu’à ce jour l’intérêt de ces soldats « anthropomorphiques » reste « très relatif ». Pour autant, avec un déploiement sur quelque 150 pays et dans le cadre d’un théâtre d’opérations en constante expansion pour lutter contre le terrorisme, cet intérêt devrait s’affirmer progressivement.
 

La préférence du combat sans risque humain entre soldats-robots pose la question de la responsabilité morale

 
Des voix plus critiques entrevoient un avenir moins marqué par des conflits entre nations qu’entre des humains et des tueurs construits pour « nous protéger ». Paul Scharre, ancien Ranger, estime qu’il est « inévitable » que la technologie nous impose de choisir entre le combat humain et « la délégation de la décision de tuer aux machines elles-mêmes ». Avec cette question morale : « Si nous partions en guerre mais que ça empêche les militaires de dormir, ça risquerait d’en dire long sur nous ». Que penser de gens qui disent avoir envie de se battre mais qui tuent sans prendre le moindre risque personnel et sans affronter des conséquences fatales du combat ? On serait bien loin de la génération qui a osé combattre, au XVIIIe siècle, la puissance militaire la plus importante de l’époque pour fonder les Etats-Unis. Hugo Grotius, dont l’influence sur les Pères fondateurs des Etats-Unis – Thomas Jefferson et James Madison – fut considérable, mettait en garde dans The Rights of War and Peace (1625) contre l’idée que tuer à la guerre était par principe justifié : « Nous déclarons d’abord que si les causes de la guerre sont injustes, alors il doit être entendu de façon solennelle que les actes d’hostilités qui y sont exécutés sont injustes par eux-mêmes. De ce fait ceux qui commettent ces actes, ou y participent, doivent être comptabilisés au nombre de ceux qui, faute de repentance, ne sauraient entrer au Royaume des cieux ».
 
S’il est donc incontestable qu’il vaut mieux que ce soient des robots plutôt que des militaires qui finissent déchiquetés par des bombes, il faut aussi considérer que si l’on part au combat, cause éternelle de morts inutiles, on doit être sûr que sa cause est juste et que Dieu justifiera la destruction d’une partie de Sa création. Or les soldats-robots peuvent exempter de cette question-clé. Le risque personnel est pourtant la condition incontournable de la responsabilité.
 

Matthieu Lenoir