Décoder la pensée : c’est ce que permet désormais de réaliser un nouveau système d’intelligence artificielle qui parvient même à interpréter ce que voit un sujet en analysant une IRM de son cerveau. Les recherches ont été menées par une équipe de Purdue University aux Etats-Unis de qui a travaillé sur les réseaux neuronaux artificiels capables de « comprendre » des scènes visuelles à travers l’activité cérébrale. C’est une avancée qui, selon les chercheurs, va améliorer les techniques actuelles de l’intelligence artificielle (AI) et permettre de mieux comprendre le fonctionnement du cerveau humain.
La technique a recours un type d’algorithme appelé « réseau neuronal convolutionnel » déjà utilisé par les ordinateurs et les smartphones pour la reconnaissance faciale et celle des objets. La nouveauté, c’est que le robot est amené à « comprendre » ce qu’il voit, alors que jusqu’ici cet algorithme de deep learning (apprentissage profond) permettait simplement d’étudier comment le cerveau analyse des images statiques et d’autres stimuli visuels.
Les chercheurs de Purdue University font progresser l’intelligence artificielle
Haiguang Wen, étudiant doctorant à Purdue, explique : « C’est la première fois que l’on a utilisé une telle approche pour comprendre comment le cerveau analyse des films de scènes naturelles : c’est un pas vers le décodage du cerveau et de son activité lorsqu’un individu essaie de trouver un sens à un environnement visuel complexe et dynamique. »
Les chercheurs ont travaillé sur 11 h 30 de données IRM provenant de trois femmes qui avaient regardé 972 clips vidéo, y compris des petits films montrant des personnes et des animaux en mouvement et des séquences montrant la nature. L’algorithme a « appris » à prédire l’activité du cortex visuel du cerveau pendant que les sujets regardaient les vidéos, après quoi le modèle a été utilisé pour décoder les données IRM afin de reconstruire les vidéos visionnées, y compris des séquences que le modèle n’avait jamais vues.
Ledit modèle a été capable de décoder les données pour classer les images en catégories spécifiques.
Décoder des images et des pensées avec l’AI grâce aux scans cérébraux
La vérification du décodage a été faite en mettant côte à côte les images vidéo réellement visionnées et celles résultant de l’interprétation faite par l’ordinateur à partir des données d’IRM, le tout quasiment en temps réel, pendant que le sujet regardait des images et que son cerveau était scanné toutes les deux secondes. La reconstruction de l’expérience visuelle se faisait au fur et à mesure, a expliqué Wen.
Grâce à cette expérience, les chercheurs ont pu constater que certaines zones du cerveau sont liées à certaines images vues par le sujet et certaines informations spécifiques reçues, car leur technique permet de visualiser l’information spécifique présentant n’importe quel lieu du cerveau tout en relevant des données sur tous les emplacements du cortex visuel. « Ce faisant, on peut comprendre comment le cerveau divise une scène visuelle en morceaux, puis les réassemble pour parvenir à une compréhension d’ensemble de ladite scène », a expliqué le responsable de l’étude.
Est-on là dans les balbutiements d’une technique qui sera demain moins invasive et donc plus apte à décoder les pensées et l’imagination des êtres humains ?