Vous publiez une photo, vous souriez, et soudain, cette image vous échappe. Depuis plusieurs semaines, les réseaux sociaux – et particulièrement X (ex-Twitter) – deviennent le théâtre d’un ras-le-bol collectif. Des femmes, connues ou anonymes, y racontent une expérience glaçante : leurs photos publiques sont utilisées pour générer, grâce à l’IA, des images intimes qu’elles n’ont jamais consenties.
Des deepfakes intimes créés en quelques clics
Le mécanisme est aussi simple qu’effrayant. À partir d’un selfie, d’un portrait professionnel ou d’une photo de vacances parfaitement banale, des outils d’IA accessibles au grand public produisent des images où le corps est artificiellement déshabillé. Les visages sont souvent reconnaissables, les proportions réalistes, le rendu troublant. Le tout donne l’illusion d’une nudité « crédible », alors qu’elle est entièrement fabriquée.
Les cibles sont multiples : influenceuses très visibles, journalistes, créatrices de contenu, mais aussi des femmes sans exposition médiatique particulière. Autrement dit, aucune présence en ligne n’est « trop petite » pour être concernée. Le point commun ? Des corps réels, divers, normaux, qui deviennent malgré eux des supports de fantasmes numériques.
Voir cette publication sur Instagram
Quand la violence est minimisée
Face aux dénonciations, certaines réactions masculines choquent par leur désinvolture : « Vous postez des photos, vous devez assumer ». Ce raisonnement dangereux inverse la responsabilité. Publier une image n’a jamais signifié renoncer à son consentement, à sa dignité ou à la maîtrise de son corps – qu’il soit mince, rond, musclé, marqué par la vie ou simplement humain.
Cette rhétorique contribue à une culture où la violation est excusée, voire justifiée. Les femmes ne demandent pas l’invisibilité, elles réclament le respect. Elles rappellent que chaque corps mérite considération, qu’il soit exposé ou non, et que la technologie ne crée aucun droit supplémentaire à l’exploitation.
Des conséquences bien réelles pour des images « fausses »
Le problème ne s’arrête pas à l’écran. Beaucoup de personnes ne savent pas distinguer une image générée par IA d’une photo authentique. Une fois diffusées, ces créations peuvent provoquer :
- Des atteintes graves à la vie privée : harcèlement, chantage, diffusion massive sans contrôle.
- Des impacts professionnels : remise en question de la crédibilité, atteinte à la réputation, surtout dans des milieux encore très normés.
- Une souffrance psychologique profonde : anxiété, honte injustifiée, perte de confiance, sentiment d’impuissance.
Le plus cruel ? Devoir se justifier pour quelque chose que l’on n’a jamais fait. Répéter : « Ce n’est pas moi sur cette photo », tout en sachant que certains douteront malgré tout.
Des plateformes et des lois à la traîne
Les réseaux sociaux peinent à modérer efficacement ces contenus. Les signalements sont longs, les retraits aléatoires, et les outils de détection souvent dépassés par la rapidité de diffusion. Côté juridique, les lois sur la diffamation ou le droit à l’image ne couvrent pas toujours ces nouveaux usages de l’IA, laissant les victimes dans un flou épuisant. Pourtant, l’enjeu est clair : protéger l’intégrité numérique, au même titre que l’intégrité physique. Un corps, même représenté artificiellement, reste lié à une personne réelle.
Reprendre le contrôle et changer le regard
Ce scandale révèle surtout une urgence éthique. L’IA, sans garde-fous, amplifie des violences déjà existantes. Les femmes n’ont pas à se cacher, à s’autocensurer ou à disparaître de l’espace public pour être en sécurité.
Le message est ainsi simple et puissant : vos corps sont légitimes, beaux dans leur diversité, et ils vous appartiennent. La technologie doit s’adapter au respect humain, jamais l’inverse. Et il est temps que cette évidence devienne une règle, en ligne comme ailleurs.
