fbpx

Facebook interrompt un essai d’intelligence artificielle (AI) quand ses robots se mettent à parler une langue connue d’eux seuls

Facebook intelligence artificielle AI robots langue
 
L’incident est « effrayant » pour The Sun qui titre : « Facebook arrête une expérience d’intelligence artificielle (AI) après que deux robots ont commencé à parler dans leur PROPRE langue qu’ils sont les seuls à comprendre. » Et le tabloïde britannique de citer un expert en robotique, le professeur Kevin Warwick : « C’est un jalon extrêmement important, mais ceux qui pensent que ce n’est pas dangereux ont la tête enfouie dans le sable ». Pour l’expert britannique, ce n’est pas la première fois que cela arrive et le jour où par exemple des robots de l’armée se mettront à communiquer de la sorte, les conséquences pourront être très graves.
 
« Les dispositifs intelligents ont la capacité de communiquer et même si nous pensons pouvoir les surveiller, nous n’avons aucun moyen de savoir [ce qu’ils se disent]. », prévient encore le professeur Warwick dans The Sun en rappelant que Stephen Hawking et lui-même mettent en garde depuis longtemps contre le danger qu’il y a à s’en remettre à l’intelligence artificielle. Comme souvent quand il s’agit d’intelligence artificielle, The Sun compare le comportement des robots de Facebook à la prise de conscience de Skynet dans le film Terminator. Dans le célèbre film de science-fiction, le superordinateur Skynet doté d’intelligence artificielle devient, à force d’apprentissage, une machine consciente qui prend la décision d’exterminer l’espèce humaine.
 

Les robots négociateurs de Facebook n’avaient pas été programmés pour négocier dans un anglais compréhensible

 
L’expérience menée par Facebook est toutefois nettement plus anodine que cela puisqu’elle portait sur deux chatbots (agents conversationnels) que l’on a voulu faire négocier entre eux plutôt que négocier avec un interlocuteur humain. L’accord à négocier concernait des articles de types chapeaux, ballons et livres, chacun des chatbots (« Alice » et « Bob »), étant programmé pour obtenir un maximum de points. Pour obtenir ces points, chaque chatbot devait négocier les articles ayant une valeur pour lui. Les différents articles ne rapportaient pas le même nombre de points aux deux chatbots et ceux-ci ne connaissaient pas la valeur de chaque article pour l’autre négociateur. En cas d’échec des négociations, les deux chatbots n’obtenaient aucun point. En revanche, la négociation était ainsi programmée qu’ils ne pouvaient pas obtenir tous les deux le maximum de points, ce qui les obligeait donc à communiquer pour arriver à un compromis optimal.
 
De tels négociateurs virtuels semblent arriver à de très bons résultats et s’il est des gens qui doivent paniquer à ce stade, ce sont les professionnels de la négociation qui pourraient bien se retrouver au chômage. Si « incident » il y a eu dans l’expérience menée par Facebook, c’est parce que les chercheurs avaient omis de programmer l’obligation du respect des règles de la langue anglaise dans les négociations. D’où la nécessité d’arrêter les deux chatbots pour corriger le problème, car développer des négociateurs virtuels incompréhensibles pour les consommateurs serait d’une totale inutilité.
 

Comment surveiller le fonctionnement des machines dotées d’intelligence artificielle si elles peuvent développer leur propre langue ?

 
Mais il n’empêche que le développement inattendu d’un code de communication propre entre deux chatbots soulève des questions. Même s’il faut faire attention à la confusion qui existe aujourd’hui entre intelligence artificielle et apprentissage-machine, que se passera-t-il si des machines vraiment intelligentes sont créées et qu’elles développent, au détour d’une programmation incorrecte ou mal intentionnée ou bien d’un auto-apprentissage inattendu, des codes de communication inaccessibles aux personnes censées les contrôler ?
 

Olivier Bault