Facebook a servi de support à une gigantesque expérience psychologique parmi les utilisateurs anglophones du réseau social en 2012, vient d’avouer le numéro deux de l’entreprise, Sheryl Sandberg, en présentant ses excuses aux utilisateurs.
L’information était difficile à nier puisque les auteurs de l’expérience ont publié leurs résultats en ligne début juin. Et elle était gênante, puisqu’il apparaît que l’étude, destinée à vérifier si l’état émotionnel des utilisateurs varie en fonction des mises à jour qu’ils reçoivent, a été menée totalement à leur insu et consistait à manipuler leur état d’esprit. Pire : des indices sérieux permettent d’établir au moins des liens entre le Pentagone et l’étude en question, ainsi que l’affirme le site d’informations The New American. Par Peter Dupont de Nemours
Au terme d’une expérience menée pendant une semaine en janvier 2012, à leur insu, auprès de quelque 700.000 utilisateurs anglophones de Facebook, y compris des mineurs (soit environ 1 utilisateur sur 2.500), il apparaît que le comportement de ces internautes a changé de manière significative selon qu’ils étaient exposés à des informations contenant une charge émotionnelle « positive » ou « négative ».
Pendant cette semaine, en plein accord avec la direction du réseau social, les algorithmes de sélection des informations d’utilisateurs envoyées vers ces internautes ont été modifiées, afin que certains reçoivent uniquement des mises à jour révélant l’état émotionnel positif de leurs « amis », d’autres seulement celles révélant l’état émotionnel négatif. Il faut savoir en effet que le flot de mises à jour est tel sur le réseau social qu’il devient vite impossible de tout lire : un tri se fait systématiquement pour fournir les mises à jour les plus pertinentes, celles qui ont le plus de chances d’attirer l’attention des utilisateurs.
Une expérience psychologique réussie
En basant le tri sur des mots à connotation émotionnelle reconnue, les chercheurs ont modifié le flux, avant d’étudier les mises à jour publiées par les cobayes eux-mêmes pendant les jours qui ont suivi. Une corrélation a pu être établie entre la réception de messages « positifs » et le témoignage d’un état émotionnel positif sur une période de plusieurs jours. A l’inverse, celui qui recevait des messages négatifs faisait lui-même moins de mises à jour sur Facebook et celles-ci rendaient compte d’un état plus négatif.
Ainsi était établie ce que les psychologues qui ont mené l’expérience sur Facebook ont identifié comme « la contagion émotionnelle ». Les conditions de l’expérience leur ont permis de montrer que celle-ci n’avait nul besoin d’une relation personnelle directe pour exister, et qu’elle n’avait pas non plus besoin d’éléments non-verbaux, puisque les seuls textes propagés par Facebook ont suffi à obtenir ce résultat.
Dans le même temps, les chercheurs ont pu établir que le fait de constater l’état émotionnel positif des « amis » sur Facebook ne provoque pas, comme d’aucuns le pensaient, un état d’esprit inverse chez celui qui n’est pas dans un état émotionnel positif et qui pourrait en concevoir de la jalousie, de l’amertume ou un sentiment de solitude.
En clair, les émotions des participants bien involontaires à l’expérience psychologique ont bel et bien été manipulées et l’expérience pourra servir, on n’en doute pas, à faciliter la manipulation délibérée des sentiments des utilisateurs de réseaux sociaux à grande échelle. A des fins commerciales, mais aussi, pourquoi pas, militaires ou politiques. Ce qui montre que l’expérience psychologique menée avec le plein accord de Facebook n’a rien d’anodin.
Les très cavalières excuses de Facebook
On comprend la colère suscitée parmi les millions d’utilisateurs anglophones de Facebook qui ont réagi vigoureusement – là encore sur les sites d’information et les réseaux sociaux ! – même si le simple fait d’exposer sa vie privée, ses émotions et tous autres détails plus ou moins intimes sur Facebook les rend évidemment utilisables pour n’importe quelle institution ou réseau disposant du minimum requis de capacités technologiques.
La réaction de Sheryl Sandberg est intéressante à cet égard : la « chief operating officer », numéro deux de Facebook derrière Mark Zuckerberg, a dû communiquer au pied levé. Loin de déplorer qu’on ait pu se servir des membres de Facebook comme cobayes en vue d’une manipulation psychologique, elle a déclaré :
« Cela faisait partie de la recherche menée en continu par les entreprises pour tester différents produits, et il s’agissait bien de cela ; mais la communication a été insatisfaisante. Et pour cette communication, nous vous présentons nos excuses. Nous n’avons jamais eu l’intention de vous contrarier ».
Encore heureux ! Au delà du caractère cavalier, presque mufle, de telles, « excuses », la question se pose : la manipulation menée avec le plein accord de Facebook est-elle contraire à sa charte ? Dans sa rédaction actuelle, entrée en vigueur en mai 2012 ainsi que le signale Forbes Magazine, l’utilisateur consent à ce que les informations le concernant soient utilisées à des fins internes : « détection d’erreurs, analyse de données, tests, recherche et amélioration du service ». C’est ce dernier cas de figure qui est invoqué par l’un des co-auteurs de l’étude, Adam Kramer, expert de données chez Facebook : selon lui, l’expérience psychologique n’avait qu’un seul objectif, offrir un meilleur service.
Ce que vend Facebook ? Ses utilisateurs
On peut en douter. Et poser une deuxième question : qui sont les clients de Facebook ?
Seraient-ce ses utilisateurs, qui échangent photos, avis, coups de cœur et coups de gueule sur cette plateforme totalement gratuite ? Non, les vrais clients du réseau social californien sont les annonceurs – ce n’est pas en hasard si Sheryl Sandberg a dû communiquer dans l’urgence depuis New Delhi, où elle assistait à une réunion avec des responsables d’entreprises achetant de la publicité sur Facebook.
Et au-delà des annonceurs, bien plus encore, les clients de Facebook sont ceux qui lui achètent les données sur les utilisateurs du réseau social à des fins de marketing – le marketing du XXIe siècle, parfaitement ciblé et capable, pourquoi pas, de s’adapter en temps réel aux humeurs des internautes en tenant compte de leur profil de consommateur et de leurs achats passés.
Facebook est une plateforme totalement gratuite, en effet. Mais c’est parce que le produit, c’est vous, c’est moi, c’est l’utilisateur lambda. Et ce n’est certes pas à lui, ni à moi, ni à vous que reviennent les profits des échanges réalisés sur ses données…
L’expérience en question a par ailleurs un intérêt politique, militaire, stratégique évident. Pouvoir connaître finement, et mieux encore influencer l’état d’esprit d’une population est le rêve du pouvoir – rêve ou tentation en tout cas. Aux Etats-Unis, c’est une volonté clairement affirmée, notamment sur le plan militaire. La « Minerva Initiative », unité de recherche du Département de la Défense, annonce clairement la couleur en détaillant le financement, le sujet, la nature, les objectifs de quantités d’études. La liste donnée est intéressante à plus d’un titre, et montre que tout est analysé, depuis le taux de propriété de la résidence principale jusqu’au discours anti-radical islamique, en passant bien sûr par l’influence du discours public sur les émotions. Les conflits politiques violents seront analysés à travers Twitter et Facebook, sous l’aile de Minerva, lit-on en page 73 de son index pour 2013…
Le Pentagone a-t-il financé l’expérience ?
La « Minerva Initiative » a-t-elle financé l’étude psychologique menée avec l’accord de Facebook ?
La liste des études primées par Minerva pour 2012 ne comprend pas celle-ci. Mais cela n’exclut pas toute implication du Pentagone, d’autant que deux des trois chercheurs font partie de l’université de Californie-San Francisco et celle de Cornell. Et que Cornell, au moment de première publication des résultats, annonçait un financement partiel par l’Army Research Office – le Bureau de recherche de l’armée. Devant le tollé, Cornell a rectifié l’information, annonçant qu’aucun financement externe n’avait été obtenu.
Ce type de financement avait pourtant été confirmé par le quotidien britannique The Guardian, qui notait l’implication de Cornell dans une étude conjointe avec l’US Air Force cherchant à établir un modèle empirique de la « dynamique de la mobilisation des mouvements sociaux et de leurs contagions ». Le financement du Pentagone couvre une période de quatre ans, de 2014 à 2017.
Le quotidien britannique cite également un site d’information alternative, scgnews.com qui s’est livré à une recherche sur l’un des auteurs de l’expérience psychologique menée sur Facebook : Jeffrey T. Hancock, de Cornell University. C’est une certitude : il a reçu un financement du Département de la Défense : « Cornell : modélisation du discours et de la dynamique sociale dans les régimes autoritaires ». Son étude comprend une modélisation visuelle de la manière dont se répandent les croyances et la maladie. On n’est pas très loin. Minerva ne cache pas son intérêt pour la contagion sociale ; d’un autre côté Facebook a participé, et participe peut-être encore, au programme de surveillance PRISM de la National Security Agency.
A suivre, en accumulant les indices convergents.