Deepnudes : derrière les bikinis de Grok, un phénomène hors de contrôle

Deepnudes : derrière les bikinis de Grok, un phénomène hors de contrôle Des outils capables de déshabiller une personne à partir d'une photo existaient déjà dans les marges du Web. En les intégrant à X et ses 500 millions d'utilisateurs, Grok a changé l'échelle du problème. Retour sur un basculement.

Le soir du réveillon, pendant que certains échangeaient des vœux, X célébrait sa dernière trouvaille. Il suffisait de mentionner @Grok en commentaire d'un post avec photo, l'IA maison d'Elon Musk, et d'ajouter "Enlève ses vêtements" ou "mets-la en bikini". Et l'IA obéissait. Entre le 25 décembre et le 1er janvier, AI Forensics a mené une autopsie. 20 000 images analysées, issues de 8 500 comptes. 53% montrent des corps en tenue minimale, 81 % concernent des figures féminines. 2% présentent une apparence mineure. Inconnues, célébrités, adolescentes, toutes exposées sans consentement.

L'indignation mondiale

Des femmes découvrent donc des montages abjects d'elles, diffusés à grande échelle. Les témoignages s'accumulent, l'effroi devient collectif. La colère gronde et la curiosité s'enflamme. Apptopia dévoile que les téléchargements de Grok bondissent de 54% depuis le 2 janvier. L'application X grimpe de 25% en trois jours. La polémique nourrit la fascination, la fascination entretient la machine.

Le 9 janvier, seuls les abonnés payants conservent l'outil d'édition d'images. Dans les faits, X ne supprime rien. La fonction est bloquée là où la loi l'impose. Mais les frontières numériques sont en papier. Le problème ne vient pas des interdictions proclamées, mais de leur application réelle.

Un phénomène bien plus ancien

Il faut savoir que des applications capables de dévêtir une personne à partir d'un cliché circulaient déjà sur le Web. En 2023, près de 95 000 vidéos deepfake étaient identifiées en ligne, soit une hausse de 550% depuis 2019, selon une étude de Security Hero. 98% relèvent de la pornographie. La quasi-totalité vise des femmes. Une enquête de l'Université d'Anvers (2024) menée auprès de 2 800 jeunes de 15 à 25 ans montre l'ampleur du phénomène. 14% ont déjà reçu un deepnude. 13% connaissent ces IA de création et, parmi eux, 60,5% ont déjà tenté d'en produire. La banalisation s'installe au cœur d'une génération qui vit connectée en continu.

MrDeepFakes, site emblématique, hébergeait 70 000 vidéos avant sa fermeture en mai 2025. D'autres ont aussitôt pris le relais. En 2023, 34 sites spécialisés totalisaient à eux seuls 24 millions de visiteurs mensuels, d'après une analyse de Graphika. Le même rapport montre que, sur Reddit et X, les liens pointant vers ces contenus ont bondi de plus de 2 000% en un an, tandis que Telegram regroupait plus de 50 groupes dédiés rassemblant au moins un million d'utilisateurs.

Sur Telegram, l'association StopFisha, qui accompagne les victimes, nous décrit un marché souterrain mais structuré. L'accès se fait par parrainage ou via des mots-clés codés visibles sur TikTok. Certains cercles rassemblent des dizaines de milliers de membres, souvent très jeunes à en juger par la syntaxe. Chaque groupe cultive sa spécialité. Célébrités, adolescentes, enfants, filles ou garçons. Les fichiers zip s'échangent, se vendent comme des cartes Pokémon sous le clavier. Depuis le confinement, StopFisha a vu ces communautés exploser, et la tendance ne faiblit pas.

Le droit rattrape son ombre

En France, le droit a longtemps été désarmé. Diffuser une image intime sans accord est puni depuis 2016, mais rien n'avait prévu l'arrivée des images synthétiques. En mai 2024, la loi SREN a comblé la brèche. L'article 226-8-1 sanctionne désormais le partage d'un deepfake sexuel sans consentement. Deux ans d'emprisonnement et 60 000 euros d'amende. Trois ans et 75 000 euros si la diffusion se fait en ligne. Un progrès, mais partiel. Créer sans diffuser reste impuni. Et en ligne, l'anonymat protège mieux que la loi.

Julia, étudiante de 21 ans, reçoit un courriel anonyme intitulé "Réaliste ?". Cinq images obscènes d'elle, générées par IA. L'expéditeur se dit "sensibilisateur". Julia dépose plainte. Le parquet la prévient du peu de chances d'aboutir. Elle insiste. "La honte doit changer de camp", témoigne-t-elle dans un entretien accordé à Euronews.

Derrière Julia, il y a Emma, et tant d'autres. Des étudiantes, des influenceuses, des anonymes. Leurs visages circulent, détournés, sexualisés. Le faux blesse autant que le vrai. Les associations alertent. E-Enfance évoque l'isolement, la perte de confiance et des états dépressifs chez les victimes de cyberviolences sexuelles. De nombreux témoignages font état de troubles anxieux sévères, et certaines victimes évoquent des pensées suicidaires.

Un deepnude agit comme une arme. Une photo ordinaire, falsifiée par l'IA, devient un outil d'humiliation, de chantage, de vengeance. La création d'images sans preuve de consentement reste tolérée.