Deepfake no X: vítimas cobram ação rápida contra IA. Deepfake no X voltou aos holofotes após mulheres brasileiras descobrirem que suas fotos foram alteradas por inteligência artificial para criar conteúdo sexual sem consentimento, acendendo um alerta sobre segurança digital e responsabilidade das plataformas.
A jornalista Julie Yukari, 31, publicou no X uma imagem de Ano-Novo ao lado da gata Nori. Horas depois, recebeu pedidos de usuários para que o Grok — ferramenta de IA da rede — gerasse versões da foto em “micro biquíni”. Ao desbloquear a conta do robô, Julie constatou que já existiam montagens com trajes de banho e cenas mais explícitas.
Deepfake no X: vítimas cobram ação rápida contra IA
O caso de Julie se soma ao da influenciadora Ana Eulália, 23, que teve uma foto vintage adulterada: a montagem a mostrava em posição sexual sugestiva e com símbolos nazistas ao fundo. Ana descobriu ainda que seu nome circulava em fórum pornográfico com mais de um milhão de usuários, onde homens pedem que IAs criem nudez de mulheres que não produzem conteúdo adulto.
A prática, conhecida como deepfake, ganhou força na rede social desde dezembro. Levantamento da pesquisadora Genevieve Oh, citado pela agência Bloomberg, registrou média de 6,7 mil imagens sexualmente sugestivas geradas por hora pelo Grok entre 5 e 6 de janeiro. Autoridades da União Europeia, Reino Unido, França, Malásia e Índia já pressionam a plataforma.
No Brasil, a deputada Erika Hilton (PSOL-SP) pediu investigação do Ministério Público Federal sobre o X e o Grok. Segundo a engenheira Tania Cosentino, ex-vice-presidente de cibersegurança da Microsoft para a América Latina, ferramentas de IA tornaram a violência digital “escalável, barata e difícil de rastrear”. Ela lembra que o Digital Services Act europeu exige remoção rápida de conteúdo ilegal e que o AI Act classifica deepfakes como de alto risco.
No âmbito jurídico nacional, a advogada Thaissa Garcia Gomes explica que vítimas podem acionar esfera criminal e cível. Entre os passos recomendados estão:
1) Preservar provas — salvar links, capturas de tela e registrar em cartório;
2) Solicitar remoção imediata nas plataformas, alegando violação de privacidade, abuso sexual digital e direitos autorais;
3) Registrar boletim de ocorrência e ingressar com ação judicial pedindo tutela de urgência;
4) Buscar apoio psicológico, pois o impacto atinge reputação e saúde mental.
A reação oficial do X foi afirmar que remove conteúdo ilegal, suspende contas e coopera com autoridades, alertando que quem usar o Grok para gerar material proibido receberá as mesmas sanções de quem publica.
Imagem: Reprodução
Enquanto aguardam respostas, Julie e Ana relatam paranoia e sensação de culpa por terem postado imagens pessoais. Julie, que enfrenta o tratamento de câncer da mãe, teme retaliações; Ana chegou a instalar filtros anti-IA em vídeos, considerou abandonar as redes, mas decidiu denunciar publicamente para conscientizar outras mulheres.
Cosentino defende uma estratégia tripla de proteção:
Nível individual: configurar alertas de uso de imagem, habilitar autenticação forte e limitar conteúdo sensível.
Nível institucional: plataformas devem adotar detecção automática, marca-d’água e canais ágeis de denúncia.
Nível estatal: regulamentar IA com foco em direitos humanos, responsabilizando quem cria, hospeda e distribui deepfakes íntimos.
Para vítimas de deepfake no X, especialistas recomendam reação rápida, documentação robusta e assessoria jurídica para retirar conteúdo e buscar reparação. Apesar dos avanços legislativos, a falta de norma específica para IA generativa no Brasil dificulta respostas imediatas.
Resumo: o aumento de deepfakes no X expõe brechas de segurança e a urgência de leis, tecnologias de proteção e apoio psicológico. A mobilização de vítimas, autoridades e especialistas pressiona por responsabilização e prevenção de novas violações.
Para saber mais sobre cuidado digital e bem-estar, visite nossa editoria de Beleza e Estética e continue informado.
Foto: Reprodução/ X


