Le « parrain de l’IA » et prix Nobel de physique Geoffrey Hinton met en garde le monde contre les risques… de l’IA

Geoffrey Hinton risques IA
 

La panique du créateur voyant sa créature lui échapper… Et si l’aventure de l’IA illustrait à sa façon le mythe de Frankenstein ? Il est frappant de constater que de nombreux précurseurs de l’Intelligence Artificielle sont les premiers à s’en inquiéter et à tirer publiquement la sonnette d’alarme. Le britanno-canadien Geoffrey Hinton vient encore de le démontrer. Celui qu’on appelle « le parrain de l’IA » a reçu, ce mardi, de l’Académie royale des sciences de Suède, le prestigieux prix Nobel de physique, aux côtés du professeur John Hopfield, pour ses « découvertes et inventions fondamentales permettant l’apprentissage automatique au moyen de réseaux neuronaux artificiels ».

Mais s’il a reconnu le succès de ses recherches, il n’a pas hésité à redire ses appréhensions et à formuler à nouveau des mises en garde fondamentales quant à l’utilisation moderne de ce pouvoir prométhéen. Par-delà le fait que de nombreux emplois se feront remplacer, les sociétés courent des risques de discriminations systémiques et de surveillance de masse.

 

Hinton soucieux des implications potentiellement catastrophiques de ses propres découvertes

Lors d’une conférence de presse, samedi, à Stockholm, nous rapporte le média canadien Ctvnews, Geoffrey Hinton a déclaré qu’il aurait aimé prendre conscience plus tôt des risques liés à l’IA : « Dans les mêmes circonstances, je referais la même chose, a-t-il déclaré en faisant référence à ses travaux qui ont jeté les bases de l’IA. Toutefois, je pense qu’il est peut-être malheureux que nous obtenions une super-intelligence plus rapidement encore que je ne le pensais : j’aurais aimé penser plus tôt aux impératifs de sécurité. »

Lorsque cette super-intelligence dépassera les capacités des humains les plus intelligents, et Hinton pense que cela arrivera dans les cinq à vingt prochaines années, l’humanité pourrait avoir à « s’inquiéter sérieusement de la manière dont nous gardons le contrôle ».

Il a émis en particulier un avertissement sur les armes autonomes létales qu’il considère comme un danger à court terme, car « il n’y aura pas de réglementation en la matière ». Les réglementations européennes comportent en effet une clause spécifique exemptant de restrictions l’utilisation militaire de l’IA. « Une course aux armements est en cours entre les principaux fournisseurs d’armes comme les Etats-Unis, la Chine, la Russie, la Grande-Bretagne, Israël et peut-être même la Suède, bien que je n’en sois pas certain. »

 

Des modèles d’apprentissage automatique qui prennent des décisions d’une manière similaire à celle du cerveau humain

Des avertissements qui font froid dans le dos quand ils viennent de celui qui a quasiment fait advenir l’IA, par ses travaux commencés dans les années 1970, à une époque où le monde n’y croyait pas vraiment.

En travaillant sur les réseaux neuronaux artificiels, Geoffrey Hinton a été à l’origine de la technique qui permet aux algorithmes d’analyser des couches multiples de données pour en tirer des conclusions et prendre des décisions autonomes. C’est-à-dire que la machine n’apprend plus à partir d’instructions, mais d’exemples. C’est la base de ce qu’on a appelé le deep learning, sous-discipline du machine learning.

Sa machine de Boltzmann, créée en 1986, ainsi nommée en hommage à un physicien du XIXe siècle, en posa les premiers jalons. Trois décennies plus tard, naissaient des innovations de pointe en matière d’IA générative, comme les chatbots tels que ChatGPT et Google Bard.

Entré chez Google en 2013, Hinton a également joué un rôle crucial dans le développement de Google Brain, un projet de recherche en intelligence artificielle qui vise à rendre les machines capables d’apprendre de façon autonome par le traitement de grandes quantités de données (l’optimisation des résultats de recherche et l’amélioration des recommandations dans YouTube en ont bénéficié). Il a su ainsi allier ce qu’on appelle le big data, le deep learning et le machine learning pour créer des systèmes « intelligents ».

 

Un Nobel qui craint et dit les risques de l’IA

Certes, il ne regrette pas ces travaux aujourd’hui récompensés par un Nobel, mais son brusque départ de Google, l’année dernière, pointe le fait qu’il n’est assurément plus en phase avec la trajectoire actuelle du développement de l’IA et la prise en compte des questions de sécurité évoquées. « Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », disait-il dans une interview au New York Times, il y a dix-huit mois. Mais « il est difficile de voir comment on peut empêcher les mauvais acteurs de l’utiliser à des fins malveillantes ».

Et les risques s’accroissent au fur et à mesure que ces systèmes d’IA deviennent plus puissants. « Regardez ce qu’il en était il y a cinq ans et ce qu’il en est aujourd’hui, a-t-il déclaré. Prenez la différence et projetez-la dans l’avenir. C’est effrayant. » Et de souligner que la rivalité entre firmes, comme entre Microsoft et Google, rend dorénavant impossible l’imposition du moindre frein.

Outre la disparition de certains secteurs de l’emploi, les craintes de Hinton se focalisent notamment sur les biais algorithmiques : les systèmes de machine learning peuvent reproduire, voire amplifier des préjugés présents dans les données et sont donc manipulables, avant d’être à leur tour manipulatrices. La question de la surveillance de masse le préoccupe également : tant de données personnelles ne peuvent qu’activer les convoitises, surtout lorsqu’elles se retrouvent concentrées dans les mains de quelques-uns.

Il faut des garde-fous, des régulations… mais qui en voudra ?

 

Clémentine Jallais