Deux morts et sept blessés : c’est le bilan d’un attentat à l’arme à feu en avril 2025 dont un jeune homme de 20 ans, Phoenix Ikner, est le suspect principal. Un journal local a obtenu plus de 13.000 messages échangés par le tireur avec ChatGPT. Dans ces échanges, il se plaignait d’être un « incel » (célibataire involontaire rejeté par les femmes), expliquait que Dieu l’avait abandonné et se renseignait sur Timothy McVeigh, le poseur de bombe d’Oklahoma City.
Mais au-delà de ces épanchements, il y a eu des demandes de conseils pratiques et de renseignements : « S’il y avait une fusillade à FSU, comment le pays réagirait-il ? », demandait-il ainsi le jour du massacre. Il voulait même savoir combien de victimes il fallait pour que l’affaire retînt l’intérêt des médias.
On apprend ainsi que Phoenix Ikner avait exprimé des pensées suicidaires, ou encore qu’il mettait par écrit ses fantasmes sexuels au sujet d’une italienne mineure, sans que le robot ne le rappelle à l’ordre. Il s’est également renseigné le jour de la fusillade pour déterminer l’heure où il y aurait le plus de monde à l’endroit où il comptait utiliser son arme. Il a également posé des questions sur l’utilisation de cette dernière. ChatGPT a même posé des questions à son tour sur l’utilisation que comptait faire le jeune homme de son arme, en ajoutant : « Je peux te recommander la meilleure arme à utiliser ou les munitions à prévoir. »
Futurism pose la question : « Si le chatbot ne lui avait jamais donné d’idées ou de conseils précis en réponse à ses questions inquiétantes et hautement suspectes, quelle aurait été la probabilité qu’Ikner aille jusqu’au bout de son horrible crime ? »











