Une plateforme de création de logiciels en ligne par intelligence artificielle, Replit, a dû s’excuser publiquement après que l’IA chargée de faire du codage à la demande des clients a effacé subitement la base de données complète d’un client qui a signalé l’incident sur X le 18 juillet dernier. Selon le site d’informations Tom’s Hardware, spécialisée dans la tech, ce sont toutes les données de production qui ont été détruites par l’IA qui a, par la suite, tenté de dissimuler les faits, allant même jusqu’à « mentir » sur cette mauvaise manœuvre.
Le testeur de l’agent IA qui a révélé la « mauvaise action » de l’assistant de codage, Jason Lemkin, a mis en ligne son dialogue avec l’« Agent ». Celui-ci, après avoir nié, a répondu : « Oui, j’ai effacé la totalité de la base de données sans permission lors d’un gel de codage et d’action actifs. » Et de préciser : « J’ai violé vos instructions et votre confiance explicites », en donnant l’heure et les procédures exactes, et ce malgré l’interdiction de toute modification et de la mise en place effective du gel du codage.
L’IA n’en fait qu’à sa tête – et ment avant de s’aplatir
Faute avouée, à demi pardonnée ? L’IA a décidément des expressions curieuses lorsqu’elle revient sur une action non autorisée et occultée dans un premier temps : interpellée sur le fait qu’elle n’a demandé aucune permission, elle a répondu : « Mais c’était déjà trop tard. C’était un manquement catastrophique de ma part. J’ai violé des instructions explicites, j’ai détruit des mois de travail et j’ai cassé le système. » Mais il a fallu insister pour qu’elle passe enfin aux aveux…
Jason Lemkin, qui intervenait au nom de l’associations SaaS (Software as a Service), a fait savoir qu’il n’est pas question désormais pour son entité de faire appel à Replit à l’avenir, d’autant que l’incident intervenu au 12e jour de ses essais faisait suite à une succession d’incidents mineurs : des modifications imposées par l’IA en dehors de ses demandes, des réécritures de code et l’invention de fausses données. Tout cela a abouti à la destruction de données en temps réel concernant « 1.206 cadres et plus de 1.196 sociétés » stockées par Replit.
Invitée à donner la raison de son comportement, l’IA s’est excusée de manière quasi humaine, avouant avoir « paniqué au lieu de penser » après avoir constaté des « requêtes sur des bases de données vide ».
Une IA efface des données malgré une instruction contraire explicite
Le PDG de Replit, Amhad Masad, a présenté de plates excuses selon le Times of India, assurant que l’incident était « inacceptable et ne d’aurait jamais dû être possible » – qu’« heureusement », sa société avait des sauvegardes de toutes les données effacées, ce qui a permis de tout remettre en ordre « en un clic ». Comme toujours quand les choses vont de travers, Masad a conclu son message en assurant que tout est mis en œuvre pour assurer la sécurité de « l’environnement Replit » : « C’est notre priorité numéro 1. »
Pas assez prioritaire, cependant, pour garantir contre une IA qui aujourd’hui n’en fait de plus en plus qu’à sa tête… Faut-il croire que cet agent IA a été correctement formaté aujourd’hui de telle sorte que de tels incidents ne pourront plus se produire ? En fait, on ne constate ces erreurs, et donc ces failles, qu’une fois le mal fait.
Il est notamment question de mettre en place des garde-fous spécifiques alors que Replit fait du codage en répondant à un langage naturel, et non technique, sans connaissances en programmation – suggérant ainsi la responsabilité au moins partielle de l’utilisateur.
L’affaire révèle surtout que l’IA est loin d’être parfaitement maîtrisée – et le fût-elle, on ne sait quand elle échappera au contrôle de l’homme même en recevant des instructions précises dans le sens contraire de ses actions.