Rostos roubados: deepfakes pornográficos transformam mulheres em alvos digitais

Estudo de Oxford revela que 96% de todo conteúdo deepfake é pornográfico, e 99% das vítimas são mulheres

Mariana* jamais imaginou que um simples tweet pudesse mudar sua vida de forma tão dolorosa. Usuária ativa do aplicativo X (antigo Twitter), ela publicou uma opinião sobre um tema político. Em poucos minutos, o que começou como um diálogo virtual se transformou em um pesadelo. Um grupo misógino que discordava de seu posicionamento encontrou fotos pessoais dela no Instagram e usou tecnologia de deepfake para criar vídeos pornográficos falsos com seu rosto.

“Foi uma sensação de violação que não consigo explicar. Eles pegaram imagens que eu postava para amigos e familiares e transformaram em algo que destruiu minha reputação e me deixou com medo”, conta Mariana. “Denunciei as publicações, mas a lentidão das plataformas para agir me fez sentir sozinha. Os agressores estavam escondidos atrás do anonimato, enquanto eu ficava exposta”, lamenta.O caso de Mariana é só um entre muitos que revelam a face cruel da era digital para milhares de mulheres. 

O deepfake é um termo que combina “deep learning” (aprendizado profundo) e “fake” (falso). No início, a tecnologia parecia apenas mais uma inovação impressionante, capaz de criar rostos, vozes e até corpos com precisão digna de ficção científica. Mas a inteligência artificial (IA) logo mostrou seu lado mais sombrio: a mesma ferramenta que poderia transformar a comunicação passou a ser usada para violar.

Lançada em fóruns como o Reddit, em 2017, a tecnologia deepfake ganhou notoriedade internacional com a criação de pornografia falsa usando rostos de atrizes famosas. Emma Watson, intérprete de Hermione Granger na saga Harry Potter, foi uma das primeiras vítimas célebres. O impacto, inicialmente restrito ao estrelato, se espalhou rapidamente.

No Brasil, o cenário é ainda mais preocupante. Entre 2022 e 2023, o país registrou um aumento de 830% em crimes com deepfake, segundo o Relatório de Fraude de Identidade de 2023 da empresa de segurança digital Sumsub. 

Segundo o pesquisador Gabriel Bertocco, pós-doutorando em Modelos de Linguagem de Grande Escala (LLM) e Visão Computacional no Laboratório de Inteligência Artificial Recod.ai, do Instituto de Computação (IC) da Unicamp, a principal utilização dessa tecnologia hoje é para a chamada pornografia de vingança. “É quando alguém insere o rosto de uma pessoa, muitas vezes uma mulher, em um vídeo ou imagem pornográfica e compartilha o material para humilhar e expor”, explica. Bertocco aponta que essa expansão está ligada também à facilidade de acesso às ferramentas. “Hoje, com menos de 100 reais é possível criar vídeos falsos de alta fidelidade. Muitas vezes, esses aplicativos se apresentam como ferramentas artísticas ou de ‘nudes’ por IA, mas a real finalidade é produzir pornografia”, afirma.

Pesquisadores do Oxford Internet Institute (OII), da Universidade de Oxford, identificaram quase 35 mil softwares capazes de gerar imagens falsas em poucos minutos, usando apenas 20 fotos públicas, facilmente encontradas em redes sociais. O estudo The State of Deepfakes de 2020 revela que 96% de todo conteúdo deepfake na internet é pornográfico e 99% desses vídeos têm como alvo mulheres.

Nos Estados Unidos, que lideram pesquisas sobre deepfakes, o fenômeno também se expandiu para mulheres comuns, expondo-as a riscos de assédio e exposição digital. No Brasil, o crescimento acompanha o aumento do acesso à internet e o desconhecimento da população sobre a tecnologia. Um levantamento da Kaspersky aponta que 66% dos brasileiros não sabem o que é um deepfake. Apesar da crescente conscientização, a legislação brasileira ainda está em desenvolvimento. Há instrumentos legais que podem proteger as vítimas: no âmbito civil, o Código Civil (arts. 186 e 927) prevê indenização por danos morais ou materiais quando a manipulação digital prejudica honra, imagem ou privacidade; no âmbito penal, o Código Penal (arts. 138 a 145) tipifica crimes como difamação, calúnia e injúria; e no âmbito eleitoral, a Lei das Eleições (Lei nº 9.504/1997, art. 57-A) proíbe a divulgação de conteúdos falsos que possam influenciar eleitores. Entretanto, a falta de políticas claras das redes sociais para identificar e barrar deepfakes facilita a viralização de conteúdos sensacionalistas, e a rapidez das falsificações somada à dificuldade de rastrear seus autores continua sendo um desafio central para a proteção das vítimas.

Bertocco explica que já existem recursos para detectar deepfakes, inclusive desenvolvidos no Brasil. “Temos ferramentas capazes de analisar quadro a quadro um vídeo para identificar se um rosto foi manipulado. Mesmo que seja difícil descobrir quem criou o material, é possível saber qual modelo de IA foi usado, o que pode auxiliar investigações”, esclarece.

Plataformas como MrDeepFakes, que acumulam bilhões de visualizações, funcionam como verdadeiras lojas virtuais de pornografia falsa. Investigações do coletivo Bellingcat conectam essas empresas a paraísos fiscais (países ou territórios que cobram poucos impostos e oferecem sigilo financeiro), dificultando a responsabilização. Além disso, suspeita-se que aplicativos usados para entretenimento estejam sendo utilizados para gerar pornografia não consensual a partir de imagens fornecidas por usuários comuns.

Essa tecnologia não existe isolada da realidade social. Ela está profundamente imersa na cultura misógina de muitos espaços da internet. Segundo levantamento da SaferNet, entre 2017 e 2022, houve um aumento de quase 30 vezes nas denúncias de misoginia online no Brasil, totalizando mais de 74 mil registros, com mulheres sendo as maiores vítimas.

“Quando fui atacada, me senti duplamente vítima: da manipulação da minha imagem e da hostilidade social que validava aquela violência. Foi assustador, mas também me fez entender que o problema é estrutural, que essa misoginia não é só online, ela está na sociedade como um todo”, reflete Mariana. Ela conta que, ao procurar ajuda ou simplesmente contar o que estava passando, sofreu julgamentos e comentários agressivos: “Me disseram coisas como ‘por que você posta fotos assim, meio sexy?’ ou ‘por que deixou suas contas públicas?’. É como se a culpa fosse minha por existir, por me expressar. Isso só reforça o ciclo de violência e silenciamento”, afirma.

Mariana também ressalta a urgência de uma mudança cultural: “Não basta apenas punir os criminosos, é preciso transformar a mentalidade que permite que essas coisas aconteçam. Muitas vezes, a sociedade culpa a vítima, em vez de combater o machismo enraizado que legitima esse tipo de abuso”, critica.

Para Bertocco, a mudança cultural precisa andar junto com a educação digital. “Na ausência de detectores, é essencial que as pessoas adotem pensamento crítico: desconfiar de conteúdos que chegam, confirmar em diferentes fontes e buscar veículos confiáveis. Quanto mais fácil fica criar falsificações, mais importante é verificar antes de acreditar ou compartilhar”, finaliza.

Fraudes com deepfake aumentaram 700% no Brasil entre 2024 e 2025, superando em cinco vezes os casos registrados nos EUA

Esta reportagem integra uma coletânea de livro-reportagem investigativo. Este capítulo trata sobre os deepfakes pornográficos. Leia o capítulo anterior aqui. Acompanhe no Periódico as próximas publicações.

 

 *Nome fictício para proteger a identidade da entrevistada.

 

Ficha técnica

Produção: Anna Perucelli

Edição e publicação: Ester Roloff e Rafaela Tzaskos 

Supervisão de produção: Hendryo André

Supervisão e publicação: Aline Rosso e Kevin Kossar Furtado

 

 

Skip to content