Il n’est plus permis d’avoir des doutes quant à « l’intelligence » de l’intelligence artificielle : on est déjà passé à l’étape suivante. L’IA de demain ne se contentera pas de raisonner comme un être humain (à ce qu’on nous dit) : elle sera dotée de moyens d’exprimer des sentiments et des émotions presque impossibles à distinguer de leurs versions humaines. C’est en tout cas ce que pense Bronwyn van der Merwe, directrice de groupe à Fjord Australia and New Zealand, la filiale « innovation » du groupe mondial de conseil technologique Accenture. Les systèmes d’intelligence artificielle dotés d’« intelligence émotionnelle » peuvent espérer la meilleure réussite à l’avenir, promet-elle.
L’année 2017 sera selon van der Merwe celle où l’intelligence émotionnelle va décoller en dessinant la prochaine génération de l’IA : cette nouvelle technologie vise à permettre des interactions entre hommes et ordinateurs très semblables à celles des interactions entre êtres humains.
La première étape consiste à faire « comprendre » les données émotionnelles du partenaire humain, en s’y adaptant en permanence et en apprenant au fur et à mesure à y répondre de manière quasi humaine en temps réel.
Intelligence artificielle ou émotionnelle ? Fjord ne voit pas l’une sans l’autre
La technologie de base existe déjà et elle est largement acceptée à travers le monde puisque 52 % des consommateurs interagissent déjà lors de « chats » en direct ou par le moyen d’applis mobiles fonctionnant à l’IA, au moins une fois par mois. Parmi eux, 62 % s’affirment selon une enquête Fjord « à l’aise » face à un interlocuteur fonctionnant à l’intelligence artificielle. Il en va ainsi des robots qui donnent des informations sur des produits sur des sites marchands, des réponses automatiques mais qui ne semblent pas l’être pour régler des problèmes techniques d’après-vente, ou encore d’un assistant virtuel comme SIRI sur l’iPhone.
Largement présente dans le quotidien, l’intelligence artificielle s’est insinuée de manière pour ainsi dire indolore dans nombre de nos habitudes quotidiennes et le rythme s’accélère. Selon Fjord, les utilisateurs vont largement et rapidement préférer les robots dotés d’intelligence émotionnelle – un marché gigantesque, puisque, toujours selon Bronwyn van der Merwe, le consommateur moyen aura davantage de conversations avec des robots – les « chat bots » – qu’avec des employés humains.
A ce moment-là, c’est la similitude du robot avec l’être humain qui fera la différence : « Les gens seront probablement davantage portés à engager la conversation avec des chat bots et des IA qui ont de la personnalité. Nous le voyons déjà… C’est un compagnon, une chose avec laquelle on peut interagir. »
Tout cela est évidemment programmé d’avance. Tant Amazon, Microsoft que Google emploient déjà des comédiens et des scénaristes chargés de façonner le caractère humanoïde de l’intelligence artificielle en créant des caractères de toutes pièces.
Accenture s’intéresse à l’avenir : celui des robots quasi humains
A ce jour, le système ne fonctionne pas extraordinairement bien. La première tentative de Microsoft l’an dernier a sombré dans le ridicule lorsque son nouveau chat bot, baptisé Tay.ai et fonctionnant sur Twitter, a multiplié les tweets racistes et incendiaires. L’engin qui visait les 18-24 ans aux Etats-Unis a dû être désactivé au bout de 16 heures. Son problème : programmé à l’usine selon les critères du politiquement correct, le logiciel avait également la capacité de se former au contact de ses interlocuteurs en utilisant les « chats » humains pour créer de nouvelles répliques personnalisées. Il y en a qui ont dû s’amuser…
L’arrivée massive de robots interactifs ressemblant à s’y méprendre à des êtres humains ne va pas sans poser des questions éthiques. Pour Bronwyn van der Merwe – c’est son « intuition » – il serait opportun d’imposer un principe de transparence complète afin que les utilisateurs soient toujours informés en cas d’interaction avec un dispositif d’intelligence artificielle, afin qu’ils sachent toujours le moment où ils sont en « conversation » avec une machine.
Elle estime que pour l’heure, ces machines ne sont capables ni de compréhension contextualisée ni d’empathie. Mais : « Nous pensons cependant qu’à l’avenir, les sociétés qui vont réussir sont celles qui parviendront à intégrer ce type de compréhension dans leur technologie. »
Les frontières entre l’être humain et le robot vont-elles devenir de plus en plus floues ? Si c’est le cas, on pourra dire que cela a été préparé de longue date, avec une sorte de quantification de l’intelligence émotionnelle que l’on mesure aujourd’hui à l’instar du QI, en donnant au « quotient émotionnel », le QE, autant d’importance, voire davantage.
A l’inverse, avec l’omniprésence des technologies globales qui favorisent la pensée par analogie plutôt que le raisonnement, et la réponse émotionnelle plus que la réflexion, de mauvais esprits diront que bien des êtres humains, saturés de réflexes pavloviens, répondent déjà comme des robots.