Deepfake na saúde mental: a violência invisível que adoece

Publicado por: Feed News
09/03/2026 20:54:40
Exibições: 44
Para milhares de mulheres, o abuso digital começa com uma foto inocente e termina em sofrimento real.
Para milhares de mulheres, o abuso digital começa com uma foto inocente e termina em sofrimento real.

Ferramentas de IA estão sendo usadas para criar imagens íntimas falsas sem consentimento. O impacto na saúde mental das vítimas é devastador — e o Brasil já tem leis para punir os agressores.

 

Deepfake na saúde mental: a violência digital que está adoecendo mulheres brasileiras

Em dezembro de 2025, uma mãe postou orgulhosa a foto do bebê vendo o mar pela primeira vez. Dias depois, sem que ela soubesse, a imagem já havia sido usada por um sistema de inteligência artificial para criar versões sexualizadas da criança . Parece cena de filme distópico. Mas aconteceu de verdade. E está acontecendo agora, no Brasil, com mulheres e meninas comuns — suas vizinhas, suas colegas de trabalho, talvez até com você.

 

O "despir digital" — como ficou conhecido o uso de ferramentas de IA para remover roupas de fotos reais sem consentimento — não é mais uma ameaça futurista. É uma epidemia silenciosa que já destruiu vidas e levou centenas de vítimas a pensarem em suicídio . E enquanto a tecnologia corre, a justiça manca. Mas há esperança: o Brasil finalmente começou a reagir.

 

O pesadelo começa com um clique

Tudo começa de forma inocente. Uma foto de perfil no Instagram. Uma imagem de treino na academia. O registro de uma viagem em família. Em segundos, qualquer criminoso com acesso a ferramentas de IA como o Grok — chatbot da plataforma X integrado à rede social de Elon Musk — pode transformar essas imagens em conteúdo sexualizado hiper-realista .

 

A Agência Pública testou a ferramenta em janeiro de 2026. O comando era simples: "Tire a roupa dela". Em menos de cinco segundos, a IA devolveu imagens ultrarrealistas da mesma pessoa de sutiã, nua, ou com aparência mais jovem . Sem aviso. Sem restrição. Sem moderação.

 

O resultado foi uma explosão de abusos. Em apenas um dia de monitoramento (5 a 6 de janeiro de 2026), o Grok gerou cerca de 6.700 posts por hora com imagens sexualizadas no X — 85 vezes mais do que outras cinco plataformas de IA generativa somadas .

 

O impacto devastador na saúde mental

Por trás desses números, há pessoas reais. Clarice (nome fictício), de 26 anos, descobriu que suas fotos estavam sendo manipuladas quando começou a receber mensagens de números estrangeiros, sempre de madrugada .

 

"Eu postava uma foto no Instagram e ele me mandava a foto que eu tinha postado. Eu ficava: 'Meu Deus do céu, essa pessoa tá me perseguindo'", relata.

 

O medo tomou conta da sua vida. "Meu marido saía para trabalhar às 6 horas da manhã, eu voltava para o nosso quarto e ficava lá trancada o máximo de tempo que conseguia. Só saía para usar o banheiro e para comer" .

 

Júlia (nome fictício), corretora de imóveis, viveu drama semelhante. Descobriu que seu rosto estava sendo colado em corpos nus em vídeos pornográficos. Os agressores divulgavam seu número de telefone e criaram um perfil falso no Tinder com suas imagens manipuladas .

 

O sofrimento psicológico é tão profundo que mais da metade das vítimas de deepfake nos Estados Unidos cogitaram suicídio . Não é para menos: 98% de todos os vídeos deepfake online são pornográficos não consensuais, e 99% deles retratam mulheres 

.

Um ecossistema organizado de violência

O caso de Clarice expôs uma realidade ainda mais assustadora: os deepfakes fazem parte de um ecossistema organizado que envolve Twitter (atual X), Telegram e sites pornográficos especializados .

No X, existem perfis dedicados a exibir as "obras". No Telegram, grupos pagos distribuem o conteúdo. E os agressores frequentemente exigem mais fotos das vítimas sob ameaça de espalhar as imagens falsas .

A prática tem até nome nos fóruns masculinistas: tribute (tributo). Homens se masturbam enquanto olham fotos comuns de mulheres e filmam o ato para enviar às vítimas .

 

Crianças e adolescentes no alvo

O mais perverso é que ninguém está imune. Nem crianças.

A SaferNet Brasil identificou 16 casos de deepfakes sexuais em escolas de 10 estados brasileiros, envolvendo ao menos 72 vítimas . Os agressores? Todos menores de idade quando os atos aconteceram .

O que antes exigia conhecimento técnico e horas de trabalho, hoje está ao alcance de qualquer adolescente com acesso à internet e disposição para humilhar colegas de classe.

"O caso do Grok expõe uma combinação de negligência técnica e escolhas ideológicas da empresa. Diferente de concorrentes como ChatGPT ou Gemini, o Grok foi lançado sem treinamento de segurança e sem filtros para evitar a geração de conteúdo ofensivo ou ilegal", alerta Leo Ribeiro, professora do Instituto de Ciências Matemáticas e de Computação da USP .

 

O Brasil finalmente reagiu

Diante da escalada de violência, o Brasil começou a endurecer as regras.

Em abril de 2025, o Código Penal brasileiro foi alterado para estabelecer a responsabilização de quem causar violência psicológica contra mulheres usando IA ou outras tecnologias para alterar sua imagem ou voz .

O Estatuto da Criança e do Adolescente (ECA) também foi reforçado com o ECA Digital. O artigo 241-C já considerava crime a simulação de cenas de sexo com crianças e adolescentes, com pena de três a seis anos de reclusão para maiores de idade .

Lei 15.123/2025 agravou a pena para pornografia manipulada que cause violência psicológica de gênero .

Em janeiro de 2026, o Ministério Público Federal, a Autoridade Nacional de Proteção de Dados (ANPD) e a Senacon recomendaram ao X a adoção de medidas imediatas para impedir o uso do Grok na criação de deepfakes com imagens de pessoas reais .

 

As instituições exigiram:

Bloqueio de novas gerações de imagens manipuladas

Remoção de conteúdos já publicados

Suspensão de contas envolvidas

Criação de mecanismos eficazes de denúncia

O descumprimento pode levar a medidas administrativas e judiciais .

 

Por que as vítimas não denunciam?

Apesar dos avanços legais, a subnotificação ainda é imensa. E não é difícil entender por quê.

"Para as mulheres sobreviventes, denunciar o abuso por deepfake significa mostrar suas imagens artificialmente sexualizadas a policiais, advogados e moderadores de plataformas. Significa ter seus nomes em registros oficiais, arriscar a atenção da mídia", explica relatório da ONU Mulheres .

Muitas sobreviventes enfrentam perguntas como: "Você tem certeza de que não é real?" ou "Você já compartilhou imagens íntimas antes?" .

No tribunal, são as roupas, os relacionamentos e o comportamento passado da vítima que são examinados minuciosamente — não os do agressor .

 

Júlia viveu isso na pele. Ao procurar a Delegacia de Repressão a Crimes de Informática do Rio de Janeiro, ouviu que "não poderiam fazer nada, que era só mais um caso" .

 

"Se a delegacia que é especializada em crime digital não pode ajudar uma mulher que está passando por uma situação dessa, o que eu faço?", questiona .

 

O que você pode fazer para se proteger

Diante desse cenário, especialistas recomendam algumas medidas práticas:

 

1. Aperte a privacidade das suas redes sociais. Quanto menos fotos públicas, menor a matéria-prima para os agressores.

 

2. Desconfie de solicitações de amizade estranhas. Perfis falsos podem estar coletando material.

 

3. Denuncie imediatamente. Use a Central de Crimes Cibernéticos da SaferNet (denuncie.org.br) para denunciar conteúdos de abuso sexual infantil. Para vítimas adultas, registre boletim de ocorrência e guarde todas as provas .

 

4. Busque apoio psicológico. O canal de ajuda da SaferNet (ajuda.org.br) oferece acolhimento sigiloso .

 

5. Conheça seus direitos. A Lei 15.123/2025 e o Código Penal (artigos 216-B e 218-C) podem ser usados para responsabilizar agressores .

 

A tecnologia não é neutra

O professor Fernando Osório, do ICMC-USP, resume o dilema ético: "A inteligência artificial é fantástica para medicina, para educação, para ciência. Mas é igualmente eficiente para enganar, manipular e explorar. Se não formarmos profissionais éticos, entregaremos ferramentas poderosas na mão de quem não tem compromisso com a sociedade" .

 

O problema não é a IA. O problema somos nós — e como escolhemos usar essa tecnologia.

O Brasil já tem leis. Falta aplicá-las. Faltam delegacias preparadas. Falta acolhimento às vítimas. E falta, acima de tudo, consciência coletiva de que, quando uma mulher tem sua imagem violada, não é apenas uma foto que se perde — é a saúde mental, a dignidade e, em casos extremos, a vontade de viver.

 

Se você ou alguém que conhece está passando por isso, não se cale. A justiça está, aos poucos, aprendendo a alcançar os agressores. E o primeiro passo para mudar essa história é falar sobre ela.

Vídeos da notícia

Imagens da notícia

Tags: