Você posta uma foto, sorri e, de repente, essa imagem desaparece. Há várias semanas, as redes sociais — e particularmente o X (antigo Twitter) — tornaram-se palco de uma indignação coletiva. Mulheres, famosas e anônimas, relatam uma experiência arrepiante: suas fotos públicas estão sendo usadas por inteligência artificial para gerar imagens íntimas para as quais elas nunca deram consentimento.
Deepfakes íntimos criados com apenas alguns cliques.
O mecanismo é tão simples quanto assustador. A partir de uma selfie, um retrato profissional ou uma foto de férias perfeitamente comum, ferramentas de IA acessíveis ao público em geral produzem imagens onde o corpo é artificialmente despido. Os rostos são frequentemente reconhecíveis, as proporções realistas, o resultado perturbador. Tudo isso cria a ilusão de nudez "verossímil", quando na verdade é completamente fabricado.
Os alvos são numerosos: influenciadoras de grande visibilidade, jornalistas, criadoras de conteúdo, mas também mulheres sem grande exposição na mídia. Em outras palavras, nenhuma presença online é "pequena demais" para ser afetada. O fio condutor? Corpos reais, diversos e normais que, sem saber, se tornam objetos de fantasias digitais.
Veja esta publicação no Instagram
Quando a violência é minimizada
Diante dessas acusações, a reação de alguns homens é chocante pela sua indiferença: "Você posta fotos, então tem que assumir a responsabilidade". Esse raciocínio perigoso inverte a responsabilidade. Publicar uma imagem nunca significou renunciar ao consentimento, à dignidade ou ao controle sobre o próprio corpo — seja ele magro, curvilíneo, musculoso, marcado pela vida ou simplesmente humano.
Essa retórica contribui para uma cultura onde a violação é desculpada, até mesmo justificada. As mulheres não estão pedindo invisibilidade; elas estão exigindo respeito. Elas nos lembram que todo corpo merece consideração, exposto ou não, e que a tecnologia não cria nenhum direito adicional à exploração.
Consequências muito reais para imagens "falsas".
O problema não termina na tela. Muitas pessoas não conseguem distinguir uma imagem gerada por IA de uma fotografia genuína. Uma vez compartilhadas, essas criações podem causar:
- Violações graves de privacidade: assédio, chantagem, divulgação em massa descontrolada.
- Impactos profissionais: questionamento da credibilidade, danos à reputação, especialmente em ambientes ainda muito padronizados.
- Sofrimento psicológico profundo: ansiedade, vergonha injustificada, perda de confiança, sentimento de impotência.
A parte mais cruel? Ter que se justificar por algo que você nunca fez. Repetir: "Essa não sou eu na foto", sabendo que alguns ainda duvidarão.
Plataformas e leis ficando para trás
As plataformas de redes sociais têm dificuldades em moderar esse conteúdo de forma eficaz. Denunciar é demorado, as remoções são inconsistentes e as ferramentas de detecção muitas vezes são sobrecarregadas pela velocidade com que o conteúdo se espalha. Legalmente, as leis sobre difamação ou direitos de imagem nem sempre abrangem esses novos usos da IA, deixando as vítimas em um limbo frustrante. No entanto, a questão é clara: proteger a integridade digital, assim como protegemos a integridade física. Um corpo, mesmo que representado artificialmente, permanece vinculado a uma pessoa real.
Retome o controle e mude sua perspectiva.
Este escândalo revela, acima de tudo, um imperativo ético. A inteligência artificial, sem salvaguardas, amplifica a violência já existente. As mulheres não deveriam ter que se esconder, se censurar ou desaparecer dos espaços públicos para estarem seguras.
A mensagem é simples, mas poderosa: seus corpos são legítimos, belos em sua diversidade e pertencem a vocês. A tecnologia deve se adaptar ao respeito pela humanidade, e nunca o contrário. E já passou da hora de essa verdade se tornar a regra, online e em todos os lugares.
