L’étude du Media Lab du MIT est toute nouvelle, et elle fait du bruit car c’est la première fois qu’on tente de mesurer scientifiquement l’impact d’une utilisation répétée de ChatGPT sur le cerveau. Or ses conclusions sont sans appel : selon les chercheurs, l’usage des assistants d’IA a pour conséquence une sous-performance systématique, « aux niveaux neuronal, linguistique et comportemental ». Les personnes n’intègrent plus suffisamment les connaissances, délèguent peu à peu leur raisonnement, et diminuent en fin de compte leur esprit critique.
La question qui en résulte : y a-t-il un moyen d’utiliser l’IA sans perte, car il ne faut pas dénier l’étendue de son pouvoir démultiplicateur à court terme ? Ou faut-il accepter que l’IA modifie notre cerveau, à moyen et long terme ? Les multiples avancées technologiques au cours de l’histoire de l’humanité ont toujours engendré ce délestage cognitif permettant un développement supplémentaire sur d’autres plans. Reste à savoir si ce nouvel outil auto-apprenant ne dépasse pas, par sa nature même, tout ce qui a pu exister jusque-là et implique une dette cognitive potentiellement déshumanisante, une perte de compétence fondamentale qui remet en jeu notre autonomie.
L’IA opère une redistribution cognitive radicale
Comment pourrait-on refuser de nouveaux outils de progression ? L’élite des nations a d’ailleurs souvent été la première à s’en saisir, des livres aux calculatrices. On y voit davantage une évolution en lieu d’une dégradation, d’autant plus qu’elle est bien confortable… Et puis les scores de QI ont augmenté tout au long du XXe siècle, nous dit-on, malgré toutes les révolutions. Mieux, les compétences évolueraient 66 % plus vite dans les emplois exposés à l’IA !
Pourtant les résultats de l’étude du MIT, intitulée « Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task » ne sont pas concluants. Elle a divisé 54 sujets en trois groupes et leur a demandé de rédiger, par trois fois, sur une durée de quatre mois, des essais de 20 minutes, type SAT (examen d’entrée à l’université aux Etats-Unis) : le premier utilisait exclusivement ChatGPT d’OpenAI (LLM, Large Language Model), le second avait à sa disposition le moteur de recherche Google (Search Engine), et le troisième n’avait droit qu’à son cerveau (Brain-only).
Les chercheurs ont ensuite enregistré l’activité cérébrale des participants, à l’aide d’électrodes et de capteurs placés directement sur le cuir chevelu sur 32 zones différentes, afin d’évaluer leur engagement et leur charge cognitive, et de mieux comprendre les activations neuronales pendant la rédaction.
Une dépendance à l’IA conduit à un encodage mémoriel plus superficiel
Les schémas de connectivité neuronale, pour une même tâche, se sont montrés significativement différents.
Le groupe « Brain-only » a montré la connectivité neuronale la plus forte et la plus étendue, notamment dans les zones associées à la créativité, à l’idéation, à la charge mnésique et au traitement sémantique : principalement parce qu’il a su « générer du contenu en interne ».
Le groupe « Search Engine » démontrait également une fonction cérébrale active quoique moindre : il s’est appuyé sur des « stratégies hybrides de gestion de l’information visuelle et de contrôle régulateur », maintenant une « intégration cognitivement exigeante ».
Quant au groupe « LLM », il a donné à voir le couplage global le plus faible, avec une amplitude cognitive totale réduite de près de 55 %. Plus précisément, il a déplacé la charge cognitive dans « l’intégration procédurale des suggestions générées par l’IA » : il n’a fait qu’intégrer passivement des informations venues de l’extérieur.
Côté mémoire, c’est frappant. Plus de 83 % des utilisateurs de ChatGPT ont déclaré avoir des difficultés à citer leur essai après la première session — aucun n’a réussi à fournir une seule citation correcte de son propre travail ! L’étude l’explique par « un contournement des processus d’encodage profond de la mémoire, les participants lisant, sélectionnant et transcrivant les suggestions générées par l’outil sans les intégrer dans les réseaux de mémoire épisodique ».
Il en résulte une absence d’intériorisation et d’appropriation des connaissances. Les usagers de ChatGPT déclarent d’ailleurs ne pas vraiment se sentir « auteurs » de leur travail. Ce qui paraît, somme toute, assez logique ! Rien de comparable n’est observé chez ceux qui se sont servis de leur matière grise.
Des conséquences destructrices pour les capacités de raisonnement libre
On remarque également qu’ils délaissent, pour la plupart, « leur ligne d’idéation et de réflexion », abandonnant leur évaluation critique des résultats du modèle d’IA ou de ses « opinions » qui ne sont, rappelons-le, que des réponses issues d’algorithmes. Il s’ensuivra inévitablement ce que des chercheurs appellent la « médiocrité algorithmique » : en utilisant tous les mêmes outils, engendrant les mêmes résultats, nous arriverons au même insipide « entre-deux ». Deux professeurs ont d’ailleurs qualifié les dissertations de « sans âme ».
Il y a donc une dette cognitive qui augmente, pendant que diminuent l’indépendance de jugement et la liberté de pensée : la vulnérabilité à la manipulation se trouve accrue. « Lorsque les participants reproduisent des suggestions sans en évaluer l’exactitude ou la pertinence, ils renoncent non seulement à la propriété des idées, mais risquent également d’intérioriser des perspectives superficielles ou biaisées », lit-on dans l’étude. Parce que les modèles d’intelligence artificielle sont basés sur des données – et des données choisies.
Et si on inverse les groupes ? Les chercheurs ont fait ce test à la quatrième session. Eh bien, le groupe initial LLM, qui n’avait plus, alors, que son cerveau pour rédiger, a peiné à recréer un réseau de connexions et une activité cérébrale aussi riche que ceux qui l’avaient fait initialement sans écran. Ce n’est donc plus seulement une question de choix et de volonté : c’est une inscription physique, physiologique dont il est difficile de revenir.
Promouvoir le développement du cerveau pour sauvegarder l’autonomie
« Nous avons franchi une ligne invisible entre l’utilisation de l’IA et sa nécessité, et je ne suis pas sûr que nous puissions revenir en arrière. Le plus effrayant, c’est que je ne suis même pas sûr que nous le devrions », écrit sur Linkedin Alex Goryachev, expert mondial reconnu dans le domaine de l’IA. L’efficacité redoutable de l’IA est un Graal qui fascine. Et il n’est pas irréel : quand le groupe « Brain-only » a recommencé sa dissertation, cette fois-ci, avec l’aide de l’IA, son cerveau a montré un pic inédit d’activité.
Mais cela montre aussi que le maintien des vraies formes d’apprentissage est absolument essentiel, vital et que l’IA doit seulement s’ajouter sans jamais remplacer.
C’est précisément ce qu’a voulu démontrer l’auteur principal de l’étude, Kosmyna, chercheuse scientifique au MIT Media Lab, car de plus en plus de jeunes l’utilisent : selon les dernières données du baromètre Born AI, près de 40 % d’entre eux utilisent ChatGPT quotidiennement. Et la génération des enfants nés après 2020 n’aura pas connu de monde sans. Pour les cerveaux en développement, c’est un risque démultiplié pour leurs capacités de raisonnement et de raisonnement libre, autonome.
Ajoutez à cela le potentiel de rébellion des modèles d’IA, comme nous le rapportait Jeanne Smits, et vous avez un joli cocktail prévisionnel pas vraiment réjouissant.