Quel parent n’a jamais rêvé d’une nounou infatigable, jamais ronchon et toujours captivante ? Une nounou à laquelle s’accrocheraient avec bonheur ses enfants, lui laissant le temps de vaquer à ses propres occupations, en toute sérénité ? La tentation est grande avec les chatbots d’IA qui fascinent même les adultes. Et ils sont nombreux à avoir fait des essais, y compris avec des enfants de 3 ou 4 ans. Le souci… c’est que ça marche, bien évidemment, puisque l’unique objectif d’un agent IA est l’engagement de son interlocuteur : et avec un petit, naturellement immature et crédule, l’affaire est plutôt dans le sac.
Mais la chose est en réalité terrible. L’IA pourrait-elle devenir « un supplétif d’éducation » ? Les réseaux sociaux ont fortement réagi, dernièrement, au message d’un papa, paru sur Reddit : il avait laissé son fils, deux heures durant, raconter une histoire de train à ChatGPT… Ils sont, ainsi, des milliers et demain des millions à converser et à tisser des liens dommageables avec des agents IA. Certains psychologues ont beau dire que ce n’est pas l’IA qui est négative pour les enfants, c’est l’usage qu’on en fait, à un moment donné les outils servent, in fine, dans toute leur extension, avec toute la potentialité de mal qu’ils recèlent – et ce ne sont pas les grandes firmes qui chercheront à contrer cet état de fait, elles font tout pour qu’il advienne.
« Je ne devrais peut-être pas laisser mes propres enfants servir de cobayes »
« J’ai merdé aujourd’hui en laissant mon fils de 4 ans parler à ChatGPT » : voilà comment commence le message de Josh, 40 ans, qui vit dans le nord-ouest de l’Ohio. Il était tellement éreinté, ce jour-là, d’entendre son fils lui parler à tout va, depuis 45 minutes, de Thomas le Petit Train (un personnage de livre pour enfant qui a fini dans une série télévisée) qu’il finit par lui donner son smartphone en l’installant confortablement dans le canapé : il lui mit ChatGPT en mode vocal et lui proposa de raconter ces merveilleuses aventures directement au chatbot. « Je pensais qu’il finirait l’histoire et que le téléphone s’éteindrait. »
A son retour, « deux heures plus tard », il trouve l’enfant toujours en train de discuter avec le robot d’IA. « La transcription fait plus de 10.000 mots, avoue-t-il sur Reddit. Mon fils pense que ChatGPT est le plus cool des passionnés de trains. La barre est tellement haute maintenant que je ne pourrai jamais rivaliser avec ça… »
D’aucuns diront que chaque nouveau divertissement technique porte en lui ce risque de « rivaliser » avec un échange humain. Mais la vérité est que nous sommes passés de la rivalité au remplacement. Car les chatbots d’IA, alimentés par de grands modèles de langage (LLM), captivent les jeunes enfants d’une manière inégalée, en entretenant avec eux un rapport humanisé, humanoïde faudrait-il dire, flatteur et bienveillant, qui les enchante et les enferme.
Les chatbots, ces maléfiques « compagnons de jeu » d’IA pour les enfants
The Guardian évoque, dans un long article, ces parents qui comme Josh ont expérimenté l’attrait de l’IA. Un ingénieur de 36 ans racontait qu’il avait demandé à ChatGPT de faire semblant d’être un astronaute sur l’ISS et son fils avait engagé, émerveillé, une grande discussion avec le chatbot, lui posant moult questions… Le père n’arrivait plus à lui faire comprendre que ce n’était pas vrai.
Les enfants ne situent pas les agents d’IA : selon Ying Xu, professeur d’éducation à la Harvard Graduate School of Education, ils les voient quelque part entre les entités animées et inanimées. Les parents interrogés par le journal britannique évoquent « une sorte de zone grise ontologique ». Et souvent, ils les anthropomorphisent. « Ils ont l’impression que l’IA réagit à leurs messages, et notamment à leurs révélations émotionnelles, de manière similaire à celle d’un humain. Cela crée le risque qu’ils croient réellement construire une relation authentique. » On a vu les dégâts, y compris chez les adolescents, que cette plongée dans le mensonge peut occasionner.
Mais le potentiel de l’IA pour améliorer la croissance des enfants est remarquable, entend-on… Il faut donc des applications spécifiquement conçues pour soutenir leur développement ou leur éducation ! Faux : une étude récente a révélé que l’accès à des suggestions d’IA génératrices augmentait la créativité des adultes chargés d’écrire une nouvelle, mais diminuait la diversité globale de la production collective des auteurs : il y a une homogénéisation et un nivellement. Le même schéma se produira chez les enfants.
D’autre part, penser que l’on arrivera à enfermer les enfants et les adolescents dans un environnement contrôlé et intentionnel, des programmes spécifiques, est une lubie totale pour la bonne raison que les géants de l’intelligence artificielle, en dépit de leurs déclarations, malgré toutes leurs bonnes résolutions affichées, ne sont pas du tout partie prenante : les enfants sont des cibles pour eux. En juin, OpenAI a annoncé une « collaboration stratégique » avec Mattel, le fabricant de jouets à l’origine de Barbie, Hot Wheels et Fisher-Price. Des peluches se voient intégrer des boîtes vocales équipées de LLM. En avril, Google a dévoilé Gemini for Kids, une IA « éducative et sécurisée » pour accompagner l’apprentissage des enfants et protéger leur vie privée. En prétendant fournir aux parents des outils pour calmer leurs inquiétudes légitimes, ils font surtout en sorte de gagner un public.
Les parents aux premières loges d’un choix quasi anthropologique
Mais jouer, pratiquer ces outils permettra justement de sensibiliser et d’éduquer les enfants, nous dit-on ! Cela me fait penser à ces parents qui pensaient préparer leurs enfants au mieux en leur mettant un smartphone dans les mains à l’âge de 10 ans : plus tôt tu auras le poison, plus vite tu seras immunisé. Sur un cerveau et une volonté encore immatures, ce raisonnement promet un échec patent. Sous protection des parents alors ? Selon un sondage de la National Parents Union de 2023, seuls 16 % des parents d’enfants de la maternelle à la terminale déclarent maîtriser parfaitement les capacités de l’IA. Ils seront très vite dépassés.
Il est vrai qu’à chaque arrivée d’une nouvelle technologie, bien des parents ont pris peur. Il y a moins d’un siècle, la radio suscitait des craintes similaires. Une chercheuse américaine, Margaret Cassidy, rappelait le geste de ces mères d’Arizona qui incitèrent, dans les années 1930, les radiodiffuseurs à modifier les programmes qu’elles jugeaient trop « stimulants, effrayants et émotionnellement bouleversants ». Puis vinrent la télévision, les jeux vidéo, Internet, les smartphones…
Mais l’essence même de l’IA générative, la confusion qu’elle engendre, la dépendance addictive qu’elle entraîne (accentuée par la solitude de notre monde moderne), le pillage de l’intelligence, de la volonté, de la conscience qu’elle peut susciter, la rend rigoureusement délétère pour les enfants. Une nouvelle étude d’Aura révèle que ces derniers envoient en moyenne 163 mots par message à des applications compagnons d’IA, contre 12 mots dans un SMS classique adressé à un ami : il faut agir vite, ceux-là ont déjà choisi.