C’est l’un des principaux instituts de recherche sur les armes du pays et il recrute désormais des enfants dans un ambitieux « programme expérimental pour les systèmes d’armes intelligentes ». Plusieurs dizaines d’adolescents ont été sélectionnés par l’Institut de technologie de Beijing (BIT), tant pour leurs notes exceptionnelles que pour leur degré d’intérêt et de patriotisme. Objectif : concevoir des robots tueurs.
La Chine forme sa future génération à l’IA militaire – qui s’encombrera sans doute moins d’éthique que ses comparses occidentaux. Une nouvelle que certains universitaires américains spécialisés jugent « extrêmement troublante ». Jusqu’où ira-t-elle pour concurrencer les États-Unis et prendre la main ?
Concevoir des robots tueurs, des armes létales autonomes
Seulement trente-et-un étudiants ont été sélectionnés parmi les cinq mille candidats, nous apprend le South China Morning Post, vingt-sept garçons et quatre filles (les Chinois n’ont que faire de l’égalitarisme genré). « Ces enfants sont tous exceptionnellement brillants, mais être brillant ne suffit pas, a déclaré un professeur du BIT. La passion de développer de nouvelles armes est un impératif… et ils doivent également être patriotes. »
Et pour cause, la Chine compte en faire ses futures élites technologiques dans ce domaine essentiel qu’est la “défense”, les prochains responsables de son programme d’armement pour la recherche sur l’IA.
Chaque élève sera encadré par deux scientifiques expérimentés en armement, et devra rapidement choisir un domaine de spécialité, tel que le génie mécanique, l’électronique ou la conception générale des armes. Le programme de quatre ans débouchera sur un doctorat complet, créant ainsi une nouvelle génération d’experts en cyber-combat.
Former les enfants, les générations futures à l’IA de combat
« Nous empruntons un nouveau chemin, faisant des choses que personne n’a jamais faites auparavant » a déclaré l’un des représentants de l’Institut.
De fait, tant dans la recherche que dans la façon de la mener. Car « il s’agit du premier programme universitaire au monde conçu pour encourager de manière agressive et stratégique la prochaine génération à penser, concevoir et déployer l’IA à des fins de recherche et d’utilisation militaires » comme l’a dit Eleonore Pauwels, chercheuse dans les cybertechnologies émergentes au Center for Policy Research de l’Université des Nations unies à New York
Les États-Unis disposaient sans doute de programmes similaires, comme ceux gérés par la Defense Advanced Research Projects Agency, mais ils opéraient dans un secret relatif et n’employaient qu’un petit nombre de scientifiques bien établis.
La Chine travaille, elle, dans la lumière (officielle) et sonde la génération de demain.
Fusionner le civil et le militaire : les risques de l’IA
La chercheuse américaine craint que dans la logique chinoise, ces connaissances puissent être utilisées aux côtés d’autres technologies nouvelles comme que les biotechnologies, l’informatique quantique, les nanotechnologies et la robotique, ce qui pourrait avoir « des conséquences dramatiques pour la sécurité et la domination militaire ».
« Pensez à des essaims de robots capables de libérer des toxines nocives dans les chaînes d’approvisionnement en aliments ou en biotechnologie ! » dit Pauwels. Ou à de puissantes combinaisons d’armes pouvant cibler, avec une précision chirurgicale, des populations spécifiques… Ou encore à « des cyberattaques automatisées très sophistiquées, ce que l’on pourrait appeler un ‘Internet of Battle Things’, où un ensemble de robots et de capteurs joue un rôle dans la défense, l’offensive et la collecte de renseignements »…
« Le fait que la stratégie nationale de l’IA en Chine repose sur une doctrine de la fusion civilo-militaire signifie qu’un prototype d’IA à usage militaire pourrait être coopté et perverti pour une surveillance ou infliger des dommages dans le contexte civil ». Et l’on n’en serait guère étonné, venant d’un pays qui possède déjà ses propres camps de « rééducation »…
« Il ne devrait pas y avoir de conclusions prédéterminées pouvant entraver le développement de la technologie de l’IA » (Chine)
Comme l’écrit un journaliste de Breitbart, « les Chinois associent avec enthousiasme l’électronique commerciale, l’espionnage et les programmes militaires, tandis que le monde libre a du mal à faire en sorte que Big Tech travaille sur des projets de défense »…
Ces derniers mois, tout particulièrement, on a pu voir se multiplier les bonnes intentions du monde occidental sur ces armes conçues grâce à l’IA. En juillet, lors de la Conférence internationale conjointe sur l’intelligence artificielle, l’Institut Future Of Life a annoncé que plus de 2 400 personnes et 160 entreprises et organisations issues de quelque 90 pays, avaient signé un engagement stipulant qu’elles « ne participeront ni ne soutiendront le développement, la fabrication, la vente ou l’utilisation des armes autonomes mortelles ». Parmi elles, Elon Musk et les trois cofondateurs de DeppMind, la filiale de Google dédiée à l’IA.
Le 12 septembre, c’est au Parlement européen d’avoir adopté une résolution appelant à une interdiction internationale de ces systèmes d’armes autonomes létales. Il a exhorté les États membres et le Conseil européen à « œuvrer en faveur de l’ouverture de négociations internationales sur un instrument juridiquement contraignant interdisant » ces armes.
Le gouvernement chinois n’a pas l’air d’avoir, lui, le même ressenti sur la question. Il a fourni en avril, à l’ONU, un document de synthèse sur l’utilisation des armes d’IA, disant que la mise au point et l’utilisation de ces systèmes d’armes autonomes létaux réduiraient le seuil de la guerre et le coût de la guerre pour les pays utilisateurs. « Jusqu’à ce que de telles discussions aient eu lieu, il ne devrait pas y avoir de directives définies d’avance ou de conclusions prédéterminées pouvant entraver le développement de la technologie de l’IA ». C’est tout dit.
Clémentine Jallais