fbpx

L’intelligence artificielle décrypte nos émotions… Pas de quoi s’effrayer, dit le Forum économique mondial

intelligence artificielle émotions Forum économique mondial
 
Il fallait y penser : l’intelligence artificielle (AI) pose un problème parce qu’elle fonctionne essentiellement selon le système du QI : le quotient intellectuel qui mesure l’intelligence rationnelle et analytique. C’est en résumé ce qu’annonce un article publié sur le site du Forum économique mondial de Davos, pour mieux faire avaler l’idée que les nouvelles formes d’intelligence artificielle puissent identifier les émotions humaines et interagir avec elles. Il n’y a vraiment pas de quoi s’en effrayer, nous dit-on…
 
Cela fait quelques années déjà que le QE, ou quotient émotionnel, a été monté sur le devant de la scène pour justifier une autre approche de l’enseignement, de la pédagogie, de l’évaluation.
 
« Les êtres humains avec un fort QE ont une vie professionnelle et personnelle plus réussie, ils sont plus attirants et plus persuasifs, ils tendent à être des leaders plus efficaces, et en général ils ont une vie plus saine, plus heureuse et même plus longue » que les autres, affirme Rana Kaliouby, PDG et cofondatrice d’Affectiva.
 

Vers une intelligence artificielle capable d’interagir avec les émotions humaines

 
Il ne s’agit plus de comprendre le monde en cherchant la vérité, ni même de calculer juste, mais de décrypter les émotions : les siennes propres et celles d’autrui. Affectiva, une société fondée en 2009 cherche justement à doter les machines de la capacité à réaliser ces tâches (un peu comme si on les dotait d’un « cerveau droit », mais sans conscience).
 
Selon Kaliouby, il importe que nos relations d’êtres humains avec les objets hyper-connectés qui nous entourent soient améliorées grâce à une interaction enrichie par l’intelligence émotionnelle des choses. « Ma société, Affectiva, a une mission : humaniser la technologie à travers l’intelligence artificielle émotionnelle, que j’appelle quant à moi : Emotion AI », écrit-elle.
 
Affectiva fonctionne en tout cas de manière parfaitement discrète. Il suffit d’une webcam pour identifier un visage humain : en chair et en os ou sur une image écran, c’est pareil. Les algorithmes du logiciel permettent d’identifier rapidement les espaces remarquables du « paysage visuel » : le coin des lèvres, la pointe du nez, le bout des sourcils. La machine identifie à partir de là, par le jeu d’algorithmes d’apprentissage, les variations qui permettent ensuite de percevoir l’état émotionnel : jadis, on aurait évoqué la carte du tendre…
 
En tout cas, l’Emotional AI se veut bien plus doué qu’un personnage de Molière pour « lire » les émotions, les algorithmes permettant d’atteindre fort rapidement des performances remarquables d’exactitude.
 

Les promesses de l’intelligence artificielle émotionnelle au Forum économique mondial

 
Rana Kaliouby affirme que sa société travaille avec une banque de données sans pareil : à partir de l’analyse de plus de 5,2 millions de visages dans 75 pays, le logiciel a permis non seulement de reconnaître les émotions mais de cartographier la diversité de leurs expressions selon des critères de sexe ou de culture.
 
Voilà qui met à mal les partisans de l’indifférenciation, et promet des débats sur l’inné et l’acquis…
 
Quoi qu’il en soit, on peut maintenant dire que les femmes sont plus expressives que les hommes, malgré la théorie du genre – et non seulement elles sourient davantage qu’eux mais leurs sourires durent plus longtemps. Aux Etats-Unis, les femmes sourient 25 % plus souvent que les hommes, en France ce pourcentage passe à 40 %, mais il est près de zéro au Royaume-Uni où il n’y a aucune différence entre hommes et femmes. Les Espagnols sont plus expressifs que les Egyptiens, mais ceux-ci montrent davantage d’émotions positives, se félicite l’auteur… égyptienne, bien sûr.
 
Son logiciel, dit-elle, permet également de détecter le sourire poli des Japonais, et il a permis de voir que dans les cultures plus collectivistes on montre moins ses émotions dans le cadre d’un groupe et bien davantage seul, à la maison. Dans les cultures plus individualistes, américaine ou européenne, c’est l’inverse : les gens sont plus expressifs dans le cadre du groupe que lorsqu’ils sont seuls.
 
L’intérêt général de la chose mis à part, la PDG d’Affectiva tient à nous dire, avec une certaine bénédiction du Forum économique mondial puisqu’il publie son papier, que tout cela est pour le mieux. On apprend au passage que plus de 1.400 marques utilisent déjà cette technologie pour analyser la réponse des consommateurs aux publicités de toutes sortes, mais aussi aux émissions de télévision, ce qui permet d’améliorer les messages. En d’autres termes, mais Mme Kaliouby ne le dit pas, de manipuler les esprits.
 

Pour les élites de Davos, l’Emotion AI est un outil anodin

 
Grâce aux Software Developer Kits (SDK) proposés par la société, « n’importe quel développeur peut incruster l’Emotion AI dans les applis, les jeux, dispositifs et autres expériences digitales en construction, afin que ceux-ci puissent percevoir les émotions humaines et s’y adapter. Cette approche conduite à un usage de plus en plus généralisé de l’Emotion AI dans nombre d’industries très diverses », explique son PDG.
 
Dans le domaine pédagogique, il s’agit par exemple de détecter des signes d’ennui ou de frustration chez les élèves. Les jeux vidéo « conçus pour nous emmener dans un voyage émotionnel » ne sont pas modifiés pour l’heure en fonction des émotions du joueur : ainsi un nouveau jeu, Nevermind (le jeu de mot suggère l’expression « Ne t’en fais pas » tout en signifiant littéralement « Jamais d’esprit ») devient de plus en plus surréaliste et compliqué à mesure que les joueurs montrent des signes de détresse. Les applications dans le domaine médical, y compris pour la dépression et l’autisme, seraient également nombreuses.
 

L’intelligence artificielle n’a pas d’intelligence… alors des émotions ?

 
« Nous reconnaissons que les émotions sont privées et nous voulons toujours être transparents par rapport à la manière dont notre technologie fonctionne et comment elle est utilisée », promet Rana Kaliouby. Il faut que les gens aient la possibilité d’exercer un droit de retrait par rapport à ces technologies – « et si ces technologies sont suffisamment convaincantes, les gens les utiliseront et en tireront une valeur ». On croit comprendre cependant que cette valeur est de l’ordre du marketing ou de l’agrément personnel devant un interlocuteur électronique compréhensif : l’illusion de la relation humaine.
 
Il ne faut d’ailleurs pas s’y tromper, l’Emotion AI sera partout. « Elle sera omniprésente, profondément mêlée aux technologies que nous utilisons quotidiennement, fonctionnant en arrière-plan, rendant nos interactions “tech” plus personnalisées, plus adéquates, plus authentiques et plus interactives » : un avenir terrifiant, quoi qu’en pense Mme Kaliouby, et quoi que désirent les constructeurs de l’avenir que veulent être les élites de Davos.
 
C’est un pas vers la confusion entre l’homme et le robot : la grande tromperie technologique.
 

Anne Dolhein