« Une jeune fille était tellement horrifiée qu’elle a vomi » raconte une mère dans un article du Guardian. Horrifiée par un récit de guerre sur le front de l’est ? Par un proxénète sur le trottoir de l’école ? Ou encore des extraits de films pornos visionnés dans la cour de récréation ? Elle a vomi parce qu’elle s’est découverte elle-même, nue, sur des images circulant publiquement dans son lycée, dans une position sexuellement explicite. Seulement, ces photos n’ont jamais existé : c’étaient des images synthétiques, fabriquées grâce à de l’IA générative – mais l’effet est sans doute encore pire.
Ce nouveau phénomène se répand partout et prend de telles proportions dans les écoles que parents comme enseignants, et même forces de police, sont largement démunis face à cet engouement dévastateur qui cible évidemment les femmes à 99 %. Le problème est que si c’est un abus sexuel violent qui touche à l’intimité de la personne et laisse des marques psychologiques évidentes (surtout chez les filles en âge scolaire), cela reste virtuel. Et donc sa gravité est passablement ignorée par les jeunes, alors que ces images, allant du simple déshabillage à la mise en scène pornographique peuvent facilement engendrer harcèlement, chantage, voire extorsion.
Que leur opposer, à cette heure ? L’éducation sexuelle wokiste, dispensée dans les écoles ? Le féminisme soixante-huitard a libéré la femme pour les hommes, et donc malheureusement, logiquement, ça ne les choque pas tant que ça.
Nudification : cette technologie qui ouvre la porte à tous les fantasmes
Avant, c’était bien plus compliqué. Il fallait détourer une photo et passer un temps précieux sur Photoshop pour rendre le montage le plus potable possible. Maintenant, c’est fait en quelques clics, au moment d’une pause, et le résultat est non seulement ultra réaliste, mais divulgable à l’infini ou presque. C’est ainsi qu’une directrice d’école raconte, dans The Guardian, avoir surpris un lycéen en train de s’occuper paisiblement, dans le bus scolaire, à dénuder en ligne une jeune fille de l’établissement d’à côté, comme si c’était un jeu.
Aujourd’hui, rapporte un professeur d’université, « tous les chefs d’établissement ont été confrontés à des incidents de deepfakes dans leurs établissements et considèrent cela comme un problème émergent ». En Australie, au Canada, à Hong-Kong, mais aussi, bien sûr, en Europe, des centaines d’élèves (masculins pour la plupart) ont été reconnus récemment coupables de ce genre de diffusion. Et pas forcément des lycéens : au Royaume-Uni, les trois quarts de ces incidents concernaient des enfants de 14 ans ou moins.
Et c’est le haut de l’iceberg, puisque la plupart des professeurs ne voient pas tout ce qui se passe. L’usage de ces applications a d’ailleurs explosé : + 550 % par an, depuis 2019. Ces outils « nudificateurs » ont été téléchargés 15 millions de fois depuis trois ans, et les jeunes, avides de technologie et en pleine effervescence hormonale, sont en première ligne. Or créer, partager des images à caractère sexuel d’une autre personne sans son consentement est ce qu’on appelle un abus sexuel par l’image (ASI). Bien sûr, seule la moitié de ces sites web mentionnent qu’ils exigent le consentement de la personne figurant sur l’image, et aucun d’eux n’en demande la confirmation…
Les deepfakes font des ravages dans les écoles – parmi les filles
Une étude, publiée il y a exactement un an, a épluché une vingtaine de ces applications « deepnude » comme on les appelle souvent. La plupart d’entre elles proposent un outil de déshabillage par IA qui, grâce à aux photos apportées, « prédit » en quelque sorte ce qui se trouve sous les vêtements. La majorité propose aussi des fonctionnalités supplémentaires permettant aux utilisateurs de mettre en scène les personnes figurant sur l’image dans des actes sexuels.
Toutes les dérives, on l’imagine, sont autorisées. Une application propose même un « Large Language Model » spécialement entraîné pour faire parler la personne ainsi utilisée… (à l’heure de la sexualité solitaire, gageons que toutes les applis le proposeront bientôt pour assouvir les fantasmes non déclarés ou impossibles des utilisateurs). Et tout cela se monnaye, bien évidemment, mais pas pour très cher, en cryptomonnaie de préférence – les premiers tests sont gratuits.
Quels effets sur les victimes ? Chez les enfants d’âge scolaire, l’impact peut être considérable. Les filles et les jeunes femmes se sentent violées et humiliées : traumatisme, phobie et dépression peuvent s’ensuivre. Il y a détournement de l’identité et violation de l’intimité, renforcés par le fait que les photos restent souvent en ligne, puisque téléchargées, archivées… les juristes parlent d’une « violence à temporalité infinie ». Dans son livre Le nouvel âge du sexisme : comment la révolution de l’IA réinvente la misogynie, Laura Bates écrit que les images deepfake sont les abus qui hantent le plus : vous subissez sans avoir rien fait et sans rien pouvoir faire.
L’IA, merveilleux soutien de la pornographie
On objectera encore une fois que c’est virtuel. Certes, mais, outre la violence réelle que cela comporte, c’est un prélude, une mise en bouche. Il est malheureusement assuré que cette technologie multiplie les violences sexuelles physiques concrètes : une mise en scène virtuelle fait plus facilement advenir une réalité similaire. Un haut responsable de la police britannique vient précisément d’alerter sur ce fait. Et ce sera, malheureusement, aussi vrai pour la pédophilie : les deepfakes alimenteront une nouvelle vague d’exploitation des enfants.
Alors les gouvernements tentent de se démener, en imposant des lois ou des interdictions. Depuis deux ans, Google, Apple, Meta, ont supprimé à plusieurs reprises des applications de « nudification » qui faisaient de la publicité payante sur leurs plateformes. Mais les développeurs contournent sans cesse les filtres et la volonté des patrons n’est pas parfaite.
Quant aux enseignants et directeurs d’école, tous invoquent une « éducation proactive et préventive ». On lit ici et là qu’il n’y a pas encore assez d’éducation sexuelle et affective suffisante, que les abus sexuels liés aux deepfakes reflètent l’éternelle domination masculine et hétérosexuelle qui persiste dans les sociétés occidentale… Il nous semble que c’en est au contraire un fruit précis. L’IA n’invente rien, elle permet juste un plus grand développement de l’état d’esprit ambiant issu de mai 68 – et personne n’est vraiment contre.
Cette pauvre jeune fille qui vomit n’est que le résultat, parmi d’autres, de cinquante ans de déréliction sexuelle, pendant lesquels la femme a cru gagner sa liberté quand elle perdait le respect dû à sa différence de nature. L’existence de ces jeunes qui veulent déshabiller leurs comparses n’est guère étonnant. Une récente enquête commandée par la police britannique le montre d’ailleurs bien : une personne sur quatre ne voit aucun inconvénient à créer et partager ce genre d’images… Et les hommes de moins de 45 ans, en particulier, sont plus enclins à le faire (comme ils sont plus susceptibles de consulter de la pornographie en ligne ou de partager des opinions misogynes… ça va avec).
A l’ère de la post-vérité, la femme sera toujours une traînée.











