C’est tout nouveau : depuis le 17 juillet, une version « Agent » proposée aux abonnés payants de ChatGPT dans certains pays (la France et plus largement l’UE n’en font pas partie) leur permet de laisser la main au chatbot pour toutes sortes de démarches complexes en ligne. Cette IA ne se contente pas de vous donner des informations ou de répondre à des questions : elle agit comme une secrétaire ayant accès à l’ensemble de vos données, y compris courriels et codes d’accès des différents comptes ; elle établit des tableaux Excel, remplit des formulaires, organise votre vie. Certes, l’utilisateur a le pouvoir d’intervenir et de rectifier le cas échéant.
OpenAI, le concepteur de ChatGPT Agent, met en garde contre les intrusions non désirées dans vos données par le biais du robot : ces « injections de prompt » peuvent transformer l’organisation en toute autonomie d’une sortie au restaurant, par exemple, en cauchemar. Un commentaire malveillant dans un blog consulté en vue de choisir le restaurant peut conduire Agent à considérer ce commentaire comme un « prompt » et à exécuter une recherche pour récupérer des mots de passe de l’utilisateur, pour le plus grand bonheur de l’attaquant.
ChatGPT Agent sait choisir des cadeaux, réserver des voyages, envoyer des courriels…
Bref, par son fonctionnement, de réels risques de fraude, de détournement ou de piratage sont liés à l’utilisation de cet assistant et Sam Altman, PDG d’OpenAI, en a averti les clients de ChatGPT au moyen d’un message sur X.
Mais cela n’empêche pas l’enthousiasme d’Altman qui cite l’un des exploits d’Agent : le robot a ainsi pris en charge l’achat d’une tenue, la réservation de moyens de transport et même le choix d’un cadeau et la commande de celui-ci en vue du mariage d’un proche. Charmant !
« Je présenterais cela à ma propre famille comme une technologie de pointe, expérimentale, une occasion d’essayer l’avenir, mais pas quelque chose que j’utiliserais pour des tâches importantes ou nécessitant de nombreuses informations personnelles avant que nous ayons eu l’occasion de l’étudier et de l’améliorer dans des conditions réelles », précisait Altman, en reconnaissant qu’OpenAI n’a pas une vision précise de l’action d’Agent. Il préconise de ne pas fournir d’informations sensibles à Agent qui pourrait être mené à les transmettre à des tiers malveillants ou à poser des actes indésirables…
Sous-traiter sa vie à ChatGPT Agent
Agent fonctionne grâce à la combinaison de deux modules : Operator qui « sait » exécuter des actions simples et « Deep Research » qui mène des recherches complexes en ligne. A l’arrivée : un robot qui écrit des courriels, fait des réservations, détermine le meilleur moment pour convoquer une réunion… Certes, la validation des envois ou des actions par l’utilisateur est requise. Au moins pour le moment.
Mais même avec des garde-fous, le système pourrait réserver des surprises très désagréables : beaucoup ont déjà une confiance démesurée en une sorte d’infaillibilité de l’IA dont les erreurs sont pourtant si nombreuses. Lui céder la gestion de sa vie quotidienne pourrait bien aboutir à des situations ubuesques. Et comment empêcher son usage à des fins criminelles ? Ou son propre départ en vrille, à l’image de son « cousin » OpenAI o1 qui bluffe et ment pour atteindre son objectif ?