Le recours à l’intelligence artificielle (IA) réduit les capacités de réflexion critique

IA réduit réflexion critique
 

C’est la conclusion d’une nouvelle étude : une dépendance excessive à l’intelligence artificielle (IA) pour effectuer certaines tâches réduit les capacités de réflexion critique. A trop déléguer à la technologie, le cerveau se retrouve comme « atrophié et non préparé » aux événements extra-ordinaires qui nécessitent un jugement et une prise de décision adéquats indépendants, sans elle.

Faut-il s’en étonner ? Faut-il en avoir peur ? Comme les chercheurs le soulignent, l’humanité a une longue histoire de « déchargement » des tâches cognitives sur les nouvelles technologies à fur et à mesure qu’elles ont émergé. Reste à savoir si l’IA est comparable dans son essence à l’écriture, l’imprimerie, la calculatrice ou même Internet… Quel différentiel de puissance recèle-t-elle par rapport à ces innovations, et quelle capacité d’autonomisation ? Quelle prudence faut-il conserver à son égard ?

De telles questions, le monde se les pose de moins en moins, comme en témoigne le tout frais Sommet pour l’action sur l’intelligence artificielle qui a pris fin mardi soir à Paris : il faut abattre les digues qui ralentissent la course, il faut injecter des fonds, il faut y aller « pleins feux » et « jusqu’au bout » comme l’a dit Macron.

 

Quand le confort ignorant finit par exclure la critique

Pour cette étude, ont été recrutés 319 « travailleurs de la connaissance », à savoir des personnes dont le travail repose sur l’analyse, la gestion et l’application de connaissances intellectuelles plutôt que sur la pratique d’un travail manuel. Confrontés à trois exemples de situations réelles dans lesquelles ils utilisaient des outils d’IA au travail, ils ont indiqué aux chercheurs le degré d’engagement de leur réflexion critique lors de l’exécution de ces tâches.

Plus exactement, ils leur ont montré comment ils utilisaient l’IA générative, en décrivant leur niveau de confiance dans la capacité des outils d’IA générative à effectuer la tâche de travail spécifique, dans l’évaluation du résultat de l’IA ainsi que dans leur capacité à effectuer la même tâche de travail sans l’outil d’IA.

Dans l’ensemble, il s’est avéré que lorsque les utilisateurs avaient moins confiance dans les résultats de l’IA, ils faisaient davantage preuve d’esprit critique et avaient davantage confiance dans leur capacité à évaluer et à améliorer la qualité des résultats de l’IA et à atténuer les conséquences des réponses de l’IA.

Autrement dit : faire confiance à l’intelligence artificielle plutôt qu’à la vraie semble atrophier les capacités de réflexion critique complexe des gens.

 

Faire confiance à l’intelligence artificielle plus qu’à la sienne propre

La réalité de l’automatisation est qu’« en mécanisant les tâches de routine et en laissant la gestion des exceptions à l’utilisateur humain, vous privez l’utilisateur des opportunités routinières d’exercer son jugement et de renforcer sa musculature cognitive, le laissant atrophié et non préparé lorsque les exceptions surviennent ». Au fur et à mesure que le cerveau délègue, en quelque sorte à l’IA, et s’en tient à la supervision, sans plus toucher à l’exécution, l’effort cognitif se modifie et diminue. L’intervention d’un travailleur dans la survenance d’un problème pourrait donc être à terme moins probante.

L’utilisation de l’IA semble également entraver la créativité : les travailleurs utilisant des outils d’IA produisant, selon les chercheurs, un « ensemble moins diversifié de résultats pour la même tâche » par rapport aux personnes s’appuyant sur leurs propres capacités cognitives. « Cette tendance à la convergence reflète un manque de jugement personnel, contextualisé, critique et réflexif des résultats de l’IA et peut donc être interprétée comme une détérioration de la pensée critique », affirme l’étude.

Il est légitime d’être ennuyé par cet état de fait, reconnaissent les chercheurs… Mais ils dénient le catastrophisme. Précisons quand même, comme le fait le site en ligne Futurism, que l’étude vient de Carnegie Mellon et Microsoft, l’entreprise qui a investi 13 milliards de dollars, en novembre, dans OpenAI, la start-up à l’origine de ChatGPT…

« Utilisées de manière inappropriée, les technologies peuvent entraîner et entraînent effectivement la détérioration de facultés cognitives qui devraient être préservées », avouent-ils. Mais il y a, selon eux, des portes de sortie. Les outils GenAI pourraient intégrer des fonctionnalités qui facilitent l’apprentissage des utilisateurs et les aident à développer des compétences spécifiques de pensée critique, « comme l’analyse d’arguments ou le recoupement de faits avec des sources faisant autorité ».

 

L’Europe dans la course à l’IA : fi de la régulation ?

Mais ne serait-ce qu’au niveau des résultats, le succès n’est pas encore au rendez-vous. Comme l’a montré une autre étude d’Uplevel, en octobre dernier, « les assistants de codage IA comme GitHub Copilot n’améliorent pas significativement la productivité des développeurs ou ne préviennent pas l’épuisement professionnel, malgré le battage médiatique entourant ces outils ». On ne voit encore pas grand-chose des gains de productivité massifs annoncés. Alors si, en plus, la capacité critique de l’utilisateur s’en trouve diminuée… on est loin de l’effet positif escompté ! Du moins dans les outils laissés aux mains du grand public.

Mais de tout cela, on s’embarrasse de moins en moins, dans ce monde du marché technologique. La course à l’IA continue de plus belle et même plus ouvertement, comme le montrent les récents événements européens. La crainte des risques a fait place à la peur de manquer le train.

Au Sommet pour l’action sur l’intelligence artificielle qui a eu lieu à Paris les 10 et 11 février, ont été annoncés, pour le secteur, des investissements privés massifs qui ont réjoui les cœurs high tech. Macron a évoqué les 109 milliards d’euros qui financeront principalement des centres de données (le plus gros contributeur étant le fonds MGX des Emirats arabes unis). Et Ursula von der Leyen, la Présidente de la Commission européenne, a concomitamment présenté une autre enveloppe de 200 milliards d’euros, ainsi qu’un allégement futur du règlement européen sur l’IA, l’« AI Act » tant décrié à l’étranger, en particulier aux Etats-Unis qui ne veulent pas voir l’Europe réguler ce secteur.

Mais pour certains, comme le directeur français du Centre pour la sécurité de l’IA, ce sommet est une « capitulation ». Yoshua Bengio, considéré comme « le parrain de l’IA », a d’ailleurs profité de l’occasion pour présenter le AI Safety Report qui est le premier document international sur la sécurité de l’intelligence artificielle où une centaine d’experts évoquent ses risques majeurs, de son utilisation malveillante à la perte potentielle de son contrôle : « L’IA ne s’impose pas à nous, ce sont les choix des individus qui en déterminent l’avenir. »

Gardons notre esprit critique !

 

Clémentine Jallais