Justiça falha e mulheres não conseguem proteção contra abusos com deepfakes
Ela acordou com mensagens inundando o celular. Imagens manipuladas dela, sexualizadas, viralizaram enquanto ela dormia.
Os sussurros a seguiam fora da internet. E, online, o abuso explodia sem controle: comentários, ridicularização, compartilhamentos, capturas de tela. Ela nunca tinha consentido com nada daquilo. E isso não impediu ninguém.
Em poucos minutos, milhares tinham visto o conteúdo. Em poucas horas, milhões.
O pesadelo estava só começando.
Dias se passaram até as plataformas responderem. Quando responderam, as imagens já tinham sido vistas, salvas e replicadas. Ela se via perguntando: para quem eu denuncio isso? Alguém vai acreditar em mim? As pessoas que fizeram isso vão sofrer alguma consequência? Ou a culpa vai cair em cima de mim?
Essa é a realidade de milhares de mulheres e meninas todos os dias. Deepfakes feitos com IA estão destruindo vidas reais, e a justiça segue fora do alcance da maioria das sobreviventes.
Essa história poderia ser a sua.
O que é abuso com deepfake e quão comuns são imagens sexuais deepfake?
Deepfakes são imagens, áudios ou vídeos manipulados por IA que fazem parecer que alguém disse ou fez algo que nunca disse ou fez. A tecnologia em si não é nova. Mas sua instrumentalização contra mulheres e meninas é um fenômeno mais recente, e está acelerando rapidamente.
Um relatório de 2023 mostrou que a pornografia deepfake representava 98% de todos os vídeos deepfake online, e 99% retratavam mulheres. Estimou-se que vídeos deepfake eram cerca de 550% mais prevalentes em 2023 do que em 2019; e as ferramentas para criá-los estão amplamente disponíveis, geralmente de graça, e exigem pouquíssima experiência técnica.
Uma vez publicado, conteúdo gerado por IA pode ser replicado infinitamente, salvo em dispositivos privados e compartilhado entre plataformas, tornando quase impossível removê-lo por completo.
Em um caso recente de grande repercussão, a jornalista britânica Daisy Dixon descobriu imagens sexualizadas suas geradas por IA no X em dezembro de 2025, criadas usando a própria ferramenta de IA Grok da plataforma. Levaram dias para a plataforma aplicar bloqueio geográfico na função, enquanto o abuso continuava se espalhando.
Em certos contextos culturais, o abuso com deepfake pode funcionar como um catalisador online para os chamados “crimes de honra”, em que uma suposta violação de normas de honra em plataformas digitais pode resultar em violência física extrema contra mulheres, ou até mesmo morte.
Segundo uma pesquisa recente, mais da metade das vítimas de deepfake nos Estados Unidos da América chegou a cogitar suicídio. Isso não é um problema de nicho da internet. É uma crise global.
A crise da impunidade: por que criadores de deepfakes raramente enfrentam a justiça
Apesar da escala do dano, processos judiciais são raros, plataformas frequentemente deixam de agir, e sobreviventes muitas vezes são re-traumatizadas quando tentam buscar ajuda. Eis por que o abismo de responsabilização é tão grande, e tão atravessado por desigualdades de gênero.
1. A lei não acompanhou a tecnologia
Menos da metade dos países tem leis que abordam abuso online. Ainda menos têm legislação que cubra especificamente conteúdo deepfake gerado por IA. A maior parte das leis sobre “pornografia de vingança” ou abuso baseado em imagens foi escrita antes de deepfakes existirem, deixando brechas enormes pelas quais perpetradores passam sem dificuldade.
Em muitos países, pornografia deepfake ou imagens de nudez geradas por IA caem em zonas cinzentas legais, deixando sobreviventes sem saber se o abuso é, de fato, ilegal e se os perpetradores podem ser processados.
Algumas jurisdições começam a agir. O AI Act da União Europeia, por exemplo, impõe obrigações de transparência sobre deepfakes. A Take It Down Act nos Estados Unidos da América cobre explicitamente imagens íntimas geradas por IA e exige remoção pelas plataformas em até 48 horas, mas leis assim ainda são raras.
Em abril de 2025, o Brasil alterou o código penal, aumentando a pena por causar violência psicológica contra mulheres usando IA ou outra tecnologia para alterar sua imagem ou voz.
A Online Safety Act do Reino Unido proíbe o compartilhamento de imagens explícitas manipuladas digitalmente, mas não aborda a criação de deepfakes e pode não se aplicar quando não se consegue provar intenção de causar sofrimento.
A ambiguidade na lei e a falta de foco no consentimento dão aos perpetradores espaço para escapar de consequências, mesmo onde já existe algum marco legal.
2. A aplicação da lei está atrasada
Mesmo quando existem leis, a aplicação frequentemente falha. Investigadores precisam de expertise em perícia digital, coordenação transfronteiriça e cooperação das plataformas para construir um caso, e a maioria dos sistemas de justiça não tem recursos suficientes para nada disso.
Provas desaparecem rapidamente à medida que o conteúdo se espalha e as cópias se multiplicam. Perpetradores se escondem atrás do anonimato ou atuam em diferentes jurisdições. Plataformas demoram, ou não querem, compartilhar dados com autoridades, especialmente em casos transnacionais. Filas na perícia digital fazem com que casos travem antes mesmo de começar.
O resultado é um sistema de justiça frequentemente subfinanciado, fragmentado e estruturalmente incapaz de acompanhar a velocidade da tecnologia, enquanto os danos que ele não consegue enfrentar recaem de forma esmagadora sobre mulheres e meninas.
3. Sobreviventes são silenciadas antes mesmo de denunciar
A subnotificação é uma das maiores barreiras à responsabilização, e não é difícil entender por que tantas sobreviventes ficam em silêncio.
Para mulheres sobreviventes, denunciar abuso com deepfake significa mostrar imagens artificialmente sexualizadas a policiais, advogados e moderadores de plataforma. Significa ter o nome em registros oficiais, correr risco de exposição na mídia e, potencialmente, enfrentar processos por difamação movidos pelas próprias pessoas que as abusaram. Significa também lidar com um sistema de justiça que, com frequência, questiona a credibilidade das mulheres em tribunal, culpabilizando a vítima, escrutinando relacionamentos e comportamentos passados, e reproduzindo uma misoginia persistente.
Muitas sobreviventes preferem bloquear, se afastar e tentar sobreviver, porque derrubar o conteúdo e se proteger é urgente. Mas isso deixa os perpetradores impunes.
4. As plataformas estão falhando com as sobreviventes
Plataformas de tecnologia há muito se escondem atrás do status de “intermediárias” para evitar responsabilidade por conteúdo gerado por usuários. Na prática, isso se traduz em plataformas lentas para remover conteúdo abusivo, com processos de denúncia opacos e inconsistentes, rejeições automatizadas de pedidos de remoção e pouca ou nenhuma cooperação com autoridades.
A carga de remoção colocada sobre as sobreviventes é cruelmente irrealista. Espera-se que elas encontrem cada cópia das suas imagens íntimas não consentidas em múltiplas plataformas e sigam denunciando uma a uma. Enquanto isso, o conteúdo continua se espalhando.
Buscando justiça, encontrando mais dano: por que sobreviventes não denunciam e o que acontece quando denunciam
Para sobreviventes que decidem se apresentar, o sistema de justiça muitas vezes vira outra fonte de trauma.
Elas são solicitadas repetidamente a ver e descrever o conteúdo abusivo, com polícia, advogados e moderadores de plataforma. Enfrentam perguntas como: “você tem certeza de que não é real?” ou “você já compartilhou imagens íntimas antes?”
Se um caso chega ao tribunal, são as roupas, os relacionamentos e o comportamento passado da vítima que entram sob escrutínio, e não os do perpetrador.
E o dano não fica só online. Em uma pesquisa da ONU Mulheres, 41% das mulheres na vida pública que sofreram violência digital também relataram ataques ou assédio offline ligados a ela. O abuso com deepfake invade cada canto da vida de uma sobrevivente.
Reimaginar a justiça: o que as sobreviventes realmente precisam
Sobreviventes de abuso com deepfake não estão pedindo simpatia. Estão pedindo um sistema que faça justiça e previna o abuso.
Isso significa serem acreditadas.
Significa ter acesso a uma justiça que imponha consequências reais a perpetradores.
Significa apoio para se recuperar de um dano real, duradouro e devastador.
E significa plataformas e governos que ajam para prevenir abusos futuros, e não apenas responder depois que o estrago já foi feito.
Da crise à ação: o que precisa acontecer agora
O abuso com deepfake é feito por seres humanos, gerado por ferramentas de IA a pedido de pessoas. Não é inevitável nem imparável. Mas pará-lo exige ação urgente e coordenada de governos, instituições e plataformas de tecnologia. Eis o que precisa acontecer:
1. Leis que realmente cubram abuso com deepfake
Governos precisam aprovar legislação com definições claras de abuso gerado por IA, com foco em consentimento, responsabilização objetiva de perpetradores, obrigações de remoção acelerada para plataformas e protocolos de aplicação transfronteiriça, porque abuso não respeita fronteiras nacionais.
2. Sistemas de justiça capazes de investigar e processar
Autoridades precisam de treinamento, recursos e capacidade dedicada para coletar e preservar evidências digitais. É preciso enfrentar os atrasos na perícia digital, e marcos de cooperação internacional precisam ser rápidos, funcionais e adequados ao propósito.
3. Plataformas responsabilizadas
Empresas de tecnologia devem ser legalmente obrigadas a monitorar proativamente e remover conteúdo abusivo dentro de prazos mandatórios, cooperar com autoridades e enfrentar consequências financeiras reais quando falharem. Autorregulação não funcionou.
4. Apoio real para sobreviventes
Forças de segurança e profissionais do direito treinados, com abordagem sensível a trauma, além de assistência jurídica gratuita, para que processos de denúncia não revitimizem as pessoas que deveriam proteger, e para que acessar a justiça não se torne proibitivamente caro. Um sistema de justiça bem coordenado, em que diferentes atores conectem sobreviventes aos serviços de que precisam.
5. Educação que previna o abuso
Alfabetização digital, incluindo educação sobre consentimento, segurança online e o que fazer ao sofrer abuso, precisa começar cedo e alcançar todo mundo. Prevenção é tão importante quanto punição.
O abuso com deepfake é a ponta afiada de um padrão muito mais amplo de violência digital que mira mulheres e meninas. Está escalando. Tem recorte de gênero. E, neste momento, os sistemas desenhados para proteger as pessoas estão falhando, enquanto as ferramentas para causar dano ficam mais baratas, rápidas e fáceis de usar a cada dia.
Isso precisa mudar. E precisa mudar agora.
Fonte: Insurtalks
