L’essor fulgurant de l’intelligence artificielle générative a ouvert de nombreuses possibilités dans le domaine de la création d’images. Sauf qu’entre innovation et dérive, la frontière peut vite s’estomper. Depuis plusieurs semaines, un phénomène préoccupant se propage sur X (ex-Twitter) : des internautes utilisent des outils d’IA pour générer des images simulées de femmes partiellement ou entièrement dévêtues, sans leur consentement.
Une exploitation malveillante des outils d’IA
Le scénario est toujours le même : des individus récupèrent des photos de femmes issues de leurs comptes publics, souvent des influenceuses, militantes, journalistes ou créatrices de contenu et les publient en demandant à des générateurs d’images assistés par IA de les « transformer ». Le résultat ? Des montages « réalistes » où les vêtements ont été effacés ou modifiés pour créer une illusion, souvent très crédible.
Ces images sont ensuite partagées sur X, accompagnées de moqueries, de commentaires déplacés ou de messages visant à humilier les personnes ciblées. Certains comptes vont même jusqu’à proposer de générer des images similaires à la demande, créant ainsi des communautés organisées autour de ces pratiques. Une pratique qui s’inscrit dans une nouvelle forme de harcèlement numérique et soulève de graves enjeux éthiques.
🧵: An x user instructed @grok, an AI assistant, to undress an image of a woman that the user added as a screenshot. @zilevandamme spotted the prompt, the bot’s reply to it and asked it pointed questions. Her exchange with the AI bot is groundbreaking as it is terrifying. #AI https://t.co/jpKjG7rWf5
— Ebba Kalondo (@EbbaKalondo) May 5, 2025
Une nouvelle forme de violence basée sur le genre
Ces contenus ne relèvent pas de la simple provocation : ils s’inscrivent dans une dynamique de violence psychologique et numérique. À travers cette pratique, les victimes voient leur image utilisée contre elles, leur intimité simulée sans leur accord, et leur intégrité mise à mal. Le but n’est pas seulement de choquer, mais de déstabiliser, de ridiculiser, et de faire taire.
Des associations de lutte contre les violences faites aux femmes alertent sur la dimension genrée de cette nouvelle forme de harcèlement. Dans la quasi-totalité des cas, les victimes sont en effet des femmes. Et si les images sont artificielles, les conséquences, elles, sont bien réelles : angoisse, isolement, perte de confiance, voire retrait des réseaux sociaux.
Une réponse encore insuffisante des plateformes
Bien que X (ex-Twitter) affirme lutter contre les contenus abusifs, la modération reste largement défaillante. Les images signalées restent en effet souvent visibles pendant plusieurs heures, et les comptes à l’origine de ces contenus sont rarement suspendus de manière immédiate. Par ailleurs, certaines images sont diffusées sur des canaux parallèles comme des forums ou des groupes privés sur d’autres plateformes, rendant leur suppression encore plus complexe.
De nombreux experts réclament une action plus ferme et systématique des réseaux sociaux : outils de détection automatisés, retrait rapide des contenus, coopération avec les autorités, et bannissement définitif des utilisateurs récidivistes.
Un vide juridique à combler d’urgence
En France, la loi permet déjà de poursuivre certaines formes de harcèlement numérique ou de manipulation d’image portant atteinte à la vie privée. Sauf que face à cette nouvelle génération de contenus générés par IA, le droit peine à suivre le rythme technologique.
Le Code pénal ne mentionne en effet pas encore explicitement la création de contenus fictifs à caractère intime, ce qui limite les recours pour les victimes. Plusieurs élus ont récemment proposé des amendements pour faire évoluer la législation et inclure ces pratiques dans les infractions existantes liées au harcèlement ou à la cyberviolence.
Comment réagir face à cette situation ?
Les associations recommandent de suivre plusieurs étapes si vous êtes confrontée à ce type de harcèlement :
- Faire des captures d’écran de l’image et des commentaires associés.
- Signaler immédiatement le contenu à la plateforme et aux modérateurs.
- Porter plainte auprès des autorités compétentes.
- Contacter des associations spécialisées dans l’accompagnement des victimes
- Ne pas rester seule, et en parler à des proches ou à des professionnels.
L’accessibilité croissante des outils d’IA, sans encadrement strict, ouvre la porte à des abus encore mal identifiés par la législation et la société. Or, derrière chaque image générée se trouve une personne réelle, souvent marquée profondément par cette intrusion dans sa vie privée. Reconnaître ces pratiques comme des formes de violence, agir collectivement pour les dénoncer, et protéger les victimes : c’est ainsi tout l’enjeu d’un débat qui ne fait que commencer.