IA : l’explosion des deepfakes audio et vidéo augmente la fraude – et le mensonge

IA deepfakes fraude mensonge
 

Le caractère exponentiel de tout ce qui peut toucher à l’IA se voit tout particulièrement aujourd’hui dans le phénomène des deepfakes. Cette technique de synthèse qui vise à compiler des images et des sons piratés et à les assembler à l’aide d’algorithmes de machine learning produit une « réalité »… qui ne s’est jamais produite et induit potentiellement en erreur celui qui y est confronté. Tout le monde se souvient du pape François en doudoune blanche ou de Marine Le Pen coiffée du foulard islamique et parlant l’arabe…

Cet hypertrucage, toujours plus répandu, s’améliore sans arrêt grâce à l’IA, prenant de nouvelles formes encore plus sophistiquées, et sert finalement en premier lieu aux cybercriminels : le niveau atteint effraie, selon les dernières études. Au-delà de la désinformation intellectuelle potentielle, les conséquences économiques de la fraude que ces techniques alimentent sont déjà considérables. Et tout le monde est concerné, des particuliers aux grandes entreprises mondiales, dans ce grand mensonge qui s’étend. La seule limite est désormais l’imagination des pirates.

 

Deepfakes : la technologie dans les médias synthétiques favorise la fraude à grande échelle

La sonnette d’alarme avait déjà été largement tirée avec l’épisode survenu à la multinationale britannique Arup, en février 2024 : des fraudeurs avaient créé une visio-conférence avec de vraies-fausses personnes, via la technologie deepfake, et fait transférer par un employé la coquette somme de 25 millions de dollars sur des comptes externes. Lors de l’année précédente, en 2023, la fraude liée aux deepfakes avait connu une hausse spectaculaire de 3.000 % aux Etats-Unis.

Le premier trimestre 2025 fait plus que confirmer la tendance. Selon le tout récent rapport de Resemble AI, les fraudes liées aux deepfakes ont entraîné des pertes financières de 200 millions de dollars, rien qu’entre janvier et avril. Il note que le paysage des menaces évolue : les images, les vidéos et les fichiers audio atteignent des niveaux de sophistication élevés et se multiplient pour atteindre de nouvelles cibles. En plus des usurpations d’identité de personnalités en vue (47 % des deepfakes), le grand public, son argent et ses données, sont de plus en plus visés : les femmes, les enfants et les personnes âgées sont particulièrement victimes de ces opérations de harcèlement, d’atteinte à la réputation ou de chantage, le tout greffé sur du mensonge.

La start-up de vérification d’identité Persona a également publié ses analyses de fraude pour le premier trimestre 2025, et annonce une augmentation très nette du volume et de l’impact des deepfakes, en raison de ce développement de l’IA générative.

 

L’IA, une arme de cybercriminalité accessible à tous

La raison première est la disponibilité croissante sur le marché d’outils de plus en plus performants, en toute légalité. L’entreprise française TEHTRIS, experte en cybersécurité, a pointé cet essor inquiétant du « Deepfake-as-a-Service » (DfaaS) où l’intelligence artificielle est utilisée pour automatiser et industrialiser des arnaques en ligne à grande échelle. Les fameuses plateformes DfaaS offrent en effet tous les services en ligne, ce qui fait que même des acteurs peu qualifiés, avec peu d’argent, peuvent lancer des cyberattaques sophistiquées gagnantes.

Comme le notait le site en ligne globalsecuritymag.fr, TEHTRIS a ainsi identifié Haotian AI, une organisation basée en Asie qui illustre la professionnalisation du « Deepfake-as-a-Service » en offrant un service clé en main : face-swapping en temps réel pour usurper une identité lors d’appels vidéo, synthèse vocale ultra-réaliste pour imiter des voix avec précision, chatbots automatisés pour maintenir des conversations crédibles pendant des semaines, génération d’images pour créer de faux profils sur les réseaux sociaux… Massives, convaincantes et rentables, les attaques ne peuvent que se multiplier.

Et il est de plus en plus difficile de les identifier. Le fondateur de Binance, plate-forme mondiale d’échange de cryptomonnaies, a réagi à une vidéo deepfake le montrant en train de faire une confession sur X en mandarin : « Je ne pouvais pas distinguer cette voix de ma vraie voix. » Cette technologie devient réellement extrêmement dangereuse. D’autant que les agents IA seront de plus en plus perspicaces et inventifs. Un rapport de la Direction des sciences et technologies du Département de la sécurité intérieure des Etats-Unis affirmait en janvier dernier : « Nous entrevoyons un avenir où un agent IA interactif pourra générer différents types de deepfakes pour atteindre un objectif plus ambitieux. Cet agent sera capable de réagir au contexte dans lequel il opère pour rendre sa tromperie plus crédible. »

En bref, selon le média en ligne biometricupdate.com, nous arrivons à une situation où un algorithme devient suffisamment intelligent – et apprend suffisamment des humains – pour orchestrer ses propres attaques.

 

Comment arrêter l’expansion du mensonge ? Faire travailler l’IA contre l’IA ?

La lutte doit être à l’échelle : c’est désormais l’obsession. Les méthodes traditionnelles de vérification de l’identité – mots de passe, codes à usage unique et reconnaissance faciale de base – ne font plus le poids. Il faut utiliser les mêmes armes, soit l’IA : analyse biométrique en temps réel, analyse des métadonnées et des schémas comportementaux… Selon Deloitte, leader de l’audit, le marché de la détection des deepfakes va passer de 5,5 milliards de dollars en 2023 à 15,7 milliards de dollars en 2026.

Ce qui reste une pâle figure en regard des prévisions de fraude que le Centre des services financiers de Deloitte estime à 40 milliards de dollars aux Ztats-Unis en 2027 contre 12,3 milliards de dollars en 2023 (soit un taux de croissance annuelle de 32 % !).

« Le problème », mettait en garde la co-responsable de l’Observatoire de l’IA à l’Université Paris 1 Panthéon-Sorbonne, sur RadioFrance, « c’est que meilleurs sont les détecteurs, meilleurs sont les IA génératives, car le principe de la création des IA génératives, c’est que ce sont les détecteurs qui les entraînent ».

La vis est sans fin… Et le faux n’est pas toujours illégal, surtout dans ce domaine de l’IA où personne ne veut voir de limites à son expansion exponentielle.

 

Clémentine Jallais