fbpx

Des chercheurs en intelligence artificielle publient une lettre ouverte pour mettre en garde contre les armes létales autonomes

intelligence artificielle armes létales autonomes lettre ouverte chercheurs

Steve Wozniak, cofondateur d’Apple


 
Depuis plusieurs années, des personnalités du monde informatique ont mis en garde contre la menace que représente l’intelligence artificielle pour l’humanité.
 
Un millier de chercheurs en intelligence artificielle viennent à leur tour de signer une lettre ouverte publiée par l’Institut Future of Life, qui s’est donné pour mission de mettre en garde contre les dangers de l’intelligence artificielle, et dans laquelle ils demandent officiellement à l’ONU et à tous les gouvernements du monde d’interdire les « armes létales autonomes », c’est-à-dire les robots tueurs.
 
Parmi les signataires, quelques grands noms qui avaient déjà émis des avertissements retentissants sur le développement de l’intelligence artificielle, comme le physicien Stephen Hawking, l’entrepreneur Elon Musk, mais également le philosophe Noam Chomsky ou le cofondateur d’Apple Steve Wozniak.
 

Des chercheurs en intelligence artificielle réclament l’interdiction des armes létales autonomes

 
Tous souhaitent l’interdiction des armes létales autonomes pour éviter une course à l’armement « intelligent » qui pourrait se révéler dramatique pour l’humanité. Les auteurs de cette lettre s’inquiètent du développement d’armes conçues pour tuer selon certains critères, sans intervention humaine ultérieure à leur programmation.
 
« L’intelligence artificielle a atteint le point où le déploiement de tels systèmes sera possible – en pratique, si ce n’est légalement – dans quelques années et non dans quelques décennies. Les enjeux sont importants : certains considèrent que l’apparition des armes autonomes constitue la troisième révolution militaire, après celles provoquées par l’apparition de la poudre à canon et des armes nucléaires », écrivent notamment les signataires.
 
Ces derniers précisent en outre qu’à « l’inverse des armes nucléaires, les armes autonomes ne requièrent pas de matières premières coûteuses ou difficiles à obtenir. Toute puissance militaire de quelque importance en fera donc un usage généralisé pour un coût modique ». Sur le plan militaire, les armes létales autonomes présentent en effet le double avantage de réduire les risques de pertes humaines et d’« abaisser le coût de l’ouverture des hostilités ».
 

Les signataires de la lettre ouverte craignent que les armes létales autonomes ne tombent entre des mains criminelles

 
Toutes les armées du monde se les disputeront, mais elles pourraient également finir « sur le marché noir, aux mains de terroristes ou de dictateurs souhaitant contrôler leur populations, ou de seigneurs de la guerre préparant une épuration ethnique ».
 
Si certains de ces signataires ont déjà mis en garde contre l’intelligence artificielle en général, d’autres avaient évoqué la menace spécifique des armes létales autonomes.
 
En juin dernier par exemple, le professeur d’informatique de l’Université de Californie Stuart Russel tirait la sonnette d’alarme dans le journal Nature : « Ne rien faire revient à accepter la poursuite du développement et du déploiement » de systèmes d’armes létales autonomes. C’est exactement ce que craignent les signataires lorsqu’ils écrivent : « Si une puissance militaire de premier plan commence à investir dans les armes autonomes, une course à l’armement sera virtuellement inévitable, et l’arrivée de cette trajectoire technologique est évidente : les armes autonomes deviendront les kalachnikovs de demain ». A un détail près : c’est un homme qui se tient encore derrière une kalachnikov et qui peut décider, en conscience, de tirer ou non.
 

Les signataires veulent poursuivre les recherches sur l’intelligence artificielle « bénéfique »

 
Mais certains – comme le site d’informations Slate – accusent les auteurs de cette lettre de ne pas dévoiler la réelle motivation de leur lutte contre les armes létales autonomes. Le texte de la lettre ouverte précise en effet que « les chercheurs en intelligence artificielle n’ont aucun intérêt à construire des armes intelligentes, et ne veulent pas que d’autres ternissent l’image de leur champ de recherche en le faisant et en provoquant ainsi une réaction de rejet massif de l’intelligence artificielle de la part du public qui porterait atteinte aux bénéfices sociétaux que cette technologie pourrait engendrer. »
 
En clair, les auteurs ont intérêt à voir l’intelligence artificielle se développer et souhaitent donc que les chercheurs se concentrent sur le développement « pacifique » de cette dernière pour ne pas s’attirer les foudres des peuples. Elle reste pourtant fort menaçante, au-delà de la question des armes létales autonomes, puisqu’elle est également convoquée pour « améliorer » l’homme et le rendre « immortel ». Il semble par ailleurs bien difficile d’arrêter une partie de la recherche qui pourrait s’avérer très lucrative, tout en encourageant et finançant le développement de l’intelligence artificielle en général. La militarisation d’applications civiles telles que la reconnaissance faciale sera fort aisée. Etant donné le développement très rapide de ces technologies, il semble bien utopique de vouloir les interdire : les terroristes, mafias ou dictateurs feront peu de cas d’une interdiction de l’ONU et le désastre pourrait être immense. Avant-hier, Jane, le site d’information militaire très proche du complexe militaro-industriel américain, titrait au sujet du chasseur F-35 de Lockheed Martin : « Le F-35 Lightning II : le dernier des chasseurs pilotés par un homme ? » Il concluait que, pour éviter un rejet politique, les chasseurs de la génération suivante devraient pouvoir être piloté tant par un homme qu’automatiquement.
 
Une autre question se pose encore : face au Nouvel ordre mondial et aux révolutions sociales qu’il engendre partout sur la planète, la grogne gagne peu à peu tous les peuples du monde et les Etats ont tout intérêt à garder ce genre de technologie très loin du grand public… Reste à savoir si cette interdiction peut encore être envisagée.
 

Béatrice Romée