Certains rêveraient d’une Intelligence Artificielle politiquement totalement correcte, rigoureusement impartiale, qui puisse même corriger les préjugés odieux de ses utilisateurs, mais c’est plus difficile que prévu… La technologie de reconnaissance faciale cumule quelques mauvais points. Un petit doute à l’esprit, une chercheuse afro-américaine a travaillé sur trois logiciels de reconnaissance faciale utilisant l’IA ; test après test, les résultats ont corroboré : leur plus faible marge d’erreur concerne des hommes et, qui plus est, des hommes blancs ! Les moins bien reconnues étant donc les femmes à peau noire…
Doublement coupables, les systèmes ! Doublement discriminants !
Et bien, oui, l’intelligence artificielle reste créée par des individus qui ont, naturellement (scandale) des influences – et, très visiblement, ces derniers ont plutôt la peau blanche (scandale bis).
Les programmes de reconnaissance faciale ont aussi des préjugés…
Joy Buolamwini, chercheuse au M.I.T. Media Lab, a d’abord rassemblé un panel de 1 270 photos de parlementaires de trois pays africains et de trois pays nordiques, où donc hommes et femmes, noirs et blancs, sont équitablement représentés.
Elle a ensuite soumis ces images à une échelle de tons de peau en en déterminant six, allant du plus clair au plus foncé (échelle de Fitzpatrick). Puis elle y a appliqué trois logiciels d’analyse faciale, ceux de Microsoft, IBM et Megvii (Face++) ; tout simplement parce que ces derniers proposaient des fonctionnalités de classification par sexe et que leur code était disponible au public.
Bingo. D’abord, il s’est avéré que les logiciels avaient entre huit et vingt fois plus de chances de se tromper sur la photo d’une femme que sur celle d’un homme. Ensuite la couleur de peau s’est révélée un deuxième notable facteur d’erreur : les taux étaient systématiquement plus élevés chez les sujets à peau plus foncée que chez les sujets à peau plus claire
En résumé, ils ont démontré un pourcentage d’erreur de seulement 0,8 % pour les hommes à couleur de peau claire contre 12 % pour les hommes à la peau plus foncée. Et de presque 47 % pour les femmes à couleurs de peau sombre, pour deux des logiciels ! L’IA amplifie nos préjugés…
Raciste et sexiste
Cette nouvelle étude, intitulée « Gender Shades » dont les résultats n’avaient jamais encore été démontrés de manière empirique, prouve beaucoup de choses selon Joy Buolamwini… En premier lieu que les données sur lesquelles on a fait travailler l’Intelligence Artificielle ne sont pas représentatives.
Les chercheurs d’une importante société de technologie américaine l’ont confirmé, en reconnaissant que leurs systèmes de reconnaissance faciale étaient précis dans plus de 97 % des cas, mais que l’ensemble de données utilisé pour évaluer sa performance concernait à plus de 77 % des hommes et qu’ils étaient à plus de 83 % blancs… « Ce qui est vraiment important ici, c’est la méthode et comment cette méthode s’applique à d’autres applications », a déclaré Buolamwini.
Un second élément apparaît pour elle : la couleur de peau nécessairement très, trop blanche, des créateurs des systèmes…
Rendre les outils « socialement responsables »
D’anciens épisodes avaient déjà alerté sur ce sujet controversé. On se souviendra de la terrible « mistake » de Google, en 2015 qui avait classé deux personnes noires dans la catégorie « gorilles » dans son application photo de reconnaissance d’image… Le site web Flickr avait commis semblable bévue en étiquetant « animal » et « singe » un homme noir.
Les conséquences, elles peuvent être multiples et variées selon Buolamwini, mais elle les résume par le maître-mot « discrimination », à valoir tant dans le domaine professionnel que dans celui du logement ou même de la justice. Fin 2016, une étude de la Georgetown Law School avait déjà stigmatisé les logiciels de reconnaissance faciale du FBI qui ont répertorié la moitié des adultes américains : pour les personnes noires, il serait de 5 % à 10 % moins précis, donc à leur détriment. Aujourd’hui, la reconnaissance faciale débarque dans d’autres secteurs critiques, comme celui des banques ou des bâtiments publics… les enjeux apparaissent.
Et le problème, souligne Buolamwini, c’est qu’il a été récemment « démontré que des algorithmes entraînés avec des données biaisées peuvent aboutir à une discrimination algorithmique ». La chercheuse en appelle donc à la « responsabilité algorithmique », pour plus de transparence et d’équité !
Ce à quoi IBM a répondu qu’elle investissait dans la recherche « pour reconnaître, comprendre et éliminer les préjugés » et la discrimination du passé… Le président de la Fondation Ford a déclaré qu’il y avait « une bataille pour l’équité, l’inclusion et la justice dans le monde numérique » – toujours l’inclusion partout.
Et comme « c’est celui qui crée la technologie qui crée la norme », même involontairement, l’inclusion doit avoir lieu en amont.