fbpx

L’intelligence artificielle se heurte à la barrière du sens et de la conscience

intelligence artificielle barrière sens conscience
 
Melanie Mitchell, professeur de science informatique à Portland State University, signait lundi une tribune dans le New York Times pour expliquer les limites auxquelles se heurtent les algorithmes d’intelligence artificielle. D’une incroyable puissance mathématique, l’AI ne comprend pas les choses à la manière des êtres humains, puisque pour elle il n’y a pas de sens, note l’universitaire. Et surtout pas de conscience, faudrait-il ajouter. Mme Mitchell ajoute que l’intelligence artificielle ne comprend « pas encore », comme si elle pouvait atteindre un jour cette similitude avec l’homme, ce qui précisément distingue celui-ci de l’animal.
 
« Vous avez probablement entendu dire que nous sommes au milieu d’une révolution AI. On nous dit que l’intelligence artificielle progresse à un rythme étourdissant, puissamment alimentée par les algorithmes d’“apprentissage profond” qui utilisent d’énormes quantités de données pour entraîner des programmes compliqués connus sous le nom de “réseaux neuronaux” », écrit-elle.
 
Cela donne des logiciels capables de reconnaître des visages ou de transcrire des phrases parlées, de repérer des fraudes financières subtiles ou d’apporter des réponses pertinentes à des questions formulées de manière ambiguë, voire de battre les meilleurs joueurs d’échecs ou de go. Même les avancées scientifiques pourraient se faire à l’avenir de manière automatisée.
 

L’intelligence artificielle, science sans conscience

 
Melanie Mitchell cite le fondateur de Facebook, Mark Zuckerberg : il suffira selon lui de cinq à 10 ans pour que sa société développe une intelligence artificielle capable « d’atteindre des niveaux meilleurs que ceux des êtres humains pour l’ensemble des sens primaires : vision, ouïe, langage, cognition générale ». Autrement dit, comme l’a déclaré Shane Legg, chercheur principal du groupe de Google DeepMind, « On passera l’étape de l’intelligence artificielle de niveau humain au milieu des années 2020 ».
 
Des prédictions vouées à l’échec, affirme Melanie Mitchell en se référant à sa propre expérience des promesses non tenues de l’intelligence artificielle. « Le défi de la création d’une intelligence semblable à celle de l’homme au sein des machines demeure fortement sous-estimée. L’essence de l’intelligence humaine manque cruellement aux systèmes d’AI actuelle : il s’agit de comprendre les situations que nous vivons, d’être capable de saisir leur sens. »
 
Et d’évoquer les fêlures qui se révèlent dans les fondations de l’intelligence artificielle moderne. Certes, celle-ci a progressé de manière spectaculaire au cours de ces 20 ou 30 dernières années, mais la recherche montre la faillite des systèmes qui décidément, ne ressemblent pas à l’homme. Melanie Mitchell donne l’exemple d’une traduction par Google d’une phrase aussi simple que celle-ci : « I put the pig in the pen. » En français googlisé, cela donne : « Je mets le cochon dans le stylo. » La traduction exacte serait : « J’ai mis le cochon dans l’enclos. » L’homonymie a trompé le traducteur automatique. On pourrait imaginer un algorithme mieux contextualisé qui tiendrait compte du fait que le mot « cochon » est plus souvent associé au mot « enclos » qu’au mot « stylo » (encore que l’on puisse arguer qu’un écrivain libertin cache un cochon dans son stylo…). Mais il s’agirait encore de calculs, de fréquences, de probabilités qui ne constituent pas en eux-mêmes l’intelligence d’un sujet.
 

La barrière du sens et de la conscience mise en lumière par une universitaire

 
Universitaire signale des études qui ont permis de constater que les programmes qui « lisent » les documents et répondent à des questions à leur sujet peuvent être facilement « trompés » lorsqu’on y ajoute des bouts de texte sans rapport. De même, des logiciels de reconnaissance de visages d’objets échouent lamentablement lors de l’introduction de certaines légères modifications qui n’empêchent en rien un être humain d’identifier correctement la personne ou l’objet.
 
Tout récemment, une photo en trompe-l’œil qui a fait le tour d’Internet a montré que l’ordinateur ne sait pas « reconnaître » un chat dont la pose le fait ressembler à un corbeau : l’homme ne s’y laisse pas prendre.
 
Mme Mitchell cite quant à elle une étude montrant que l’introduction d’une image d’éléphant dans un salon – le célèbre « éléphant dans la pièce » – conduit les algorithmes d’AI à ne plus reconnaître correctement les objets qui l’entourent. Idem pour les algorithmes qui jouent à des jeux (mathématiques) comme le go ou des jeux vidéo : ils sont totalement perdus lorsqu’on introduit un petit changement dans le jeu qu’ils ont appris, telle la modification de la couleur d’arrière-plan ou de l’emplacement d’une « raquette » virtuelle.
 

Les ratés de l’intelligence artificielle, incapable de reconnaître la pièce autour de l’éléphant

 
Dans la vraie vie, à mesure que l’intelligence artificielle joue un rôle croissant dans la société, ce type de ratés peut avoir des conséquences de plus en plus désastreuses : confondre un innocent avec un criminel, ou pour une voiture sans conducteur, ne pas « voir » un piéton sur le point de traverser la route en raison d’un éclairage inhabituel. A l’inverse, une modification subtile introduite dans un logiciel d’AI par un pirate malveillant peut aussi provoquer des réponses catastrophiques. Or ce sont des attaques possibles dont les conséquences ont déjà été mises en évidence pour des dispositifs de reconnaissance faciale, de conduite sans chauffeur – ainsi un autocollant habilement placé sur un signe stop peut conduire un tel véhicule à n’y voir qu’un « cédez le passage » – ou d’assistance virtuelle. Ainsi, la modification d’un signal audio, imperceptible à l’oreille humaine, peut déclencher une commande sur Siri ou Alexa.
 
C’est précisément l’incapacité à comprendre de manière humaine qui constitue selon Melanie Mitchell le gros danger de l’intelligence artificielle : « Ces programmes ne comprennent ni les données qu’elles traitent ni ce qu’elles produisent en sortie. Cette absence de compréhension rend ces programmes vulnérables à l’écart d’erreurs inattendues et d’attaques indétectables. »
 

L’intelligence artificielle… n’est pas humaine, car incapable de Dieu

 
Le sens commun, la compréhension des motivations et des comportements probables des êtres qui nous entourent, particulièrement les êtres humains, la capacité à généraliser, à former des concepts abstraits et à faire des analogies, tout cela qui relève de l’intelligence humaine a fait l’objet d’études sans fin de la part des développeurs de l’intelligence artificielle qui voudraient en doter leurs algorithmes, souligne l’auteur : » Mais il y a eu très peu de progrès dans cette entreprise très difficile. »
 
Cela veut dire que les dispositifs d’intelligence artificielle actuellement déployés sont en réalité dangereux du fait d’une « autonomie » excessive qui ne tient pas compte de cette limite, il faudrait dire de cette frontière entre la machine et l’homme. Melanie Mitchell cite Pedro Domingos, chercheur en AI : « Les gens sont inquiets de voir les ordinateurs devenir trop intelligents et prendre le contrôle du monde, mais le vrai problème est qu’ils sont trop stupides et qu’ils ont déjà pris le contrôle du monde. »
 
Melanie Mitchell en tire la conclusion qu’il va falloir mieux connaître nos propres capacités intellectuelles et le mode de fonctionnement de l’intelligence humaine pour espérer un jour en doter une intelligence artificielle enfin devenue « fiable ».
 

Etudier le sens et la conscience pour créer une AI « fiable »

 
Mais cela est-il possible ? L’intelligence humaine ne se réduit pas et ne saurait se réduire à la matière puisqu’elle participe de son identité d’être raisonnable, en cela « à l’image de Dieu ». L’intelligence artificielle est une singerie d’intelligence, dotée par l’homme de ce qu’on pourrait appeler le substrat de l’intelligence, sans la rendre consciente de son objet. Pour elle la réalité ne sera jamais intelligible, même si elle parvient à en saisir tous les aspects sensibles. On pourra sans doute améliorer ses capacités de calcul, de mémoire, de logique binaire… On pourra peut-être même la mettre « en réseau » avec un cerveau humain, c’est le but des transhumanistes. Et tout cela annonce des développements insoupçonnés, et effrayants, car le but est de nier la nature humaine en effaçant les frontières qui la séparent de la matière, tout comme on cherche à effacer les limites qui séparent l’homme de l’animal. Mais l’intelligence artificielle, on ne l’amènera jamais à comprendre, ni à aimer.
 

Jeanne Smits