Buscas por “Nudify” Batem Recorde e FGV Cobra Ação do Google
Um estudo recente da Fundação Getulio Vargas (FGV) Direito Rio recomendou que o Google remova de seus resultados de pesquisa os sites de “nudify”, ferramentas de inteligência artificial (IA) que geram imagens falsas de nudez sem consentimento.
A cobrança ocorre após o Brasil registrar um recorde de buscas por essas plataformas, impulsionado pela popularização da ferramenta de edição de imagens da IA Grok, da rede social X de Elon Musk. O documento apresenta uma lista de medidas estruturais para a plataforma de buscas, incluindo a desindexação completa de URLs que hospedam essas ferramentas.
- Desindexação completa de URLs que hospedam essas ferramentas, incluindo domínios espelhos e variantes linguísticas.
- Implementação de filtros algorítmicos, baseados em análise semântica e metadados, para impedir a indexação futura de sites similares.
- Remoção de sugestões na função de “autocompletar” para termos como “nudify”, “undress AI” e “deepnude”.
O estudo propõe a exibição de avisos de segurança nos resultados dessas buscas para informar os usuários sobre a ilegalidade e os danos da prática. Além disso, a FGV sugere a atualização das políticas do Google para classificar essas páginas como nocivas, equiparando-as aos sites de imagens íntimas não consentidas.
A pesquisa recomenda a criação de um canal de denúncia rápido para vítimas e organizações da sociedade civil. Os autores também cobram transparência nos relatórios sobre o número de URLs removidas e o incentivo a um diálogo multissetorial para o desenvolvimento de um protocolo global de resposta.
O pedido de intervenção tem como base a análise de dados do Google Trends, que mostrou um pico máximo de interesse pelo termo “nudify” na semana de 28 de dezembro de 2025. A coordenadora do estudo, Yasmin Curzi, argumenta que o mecanismo de busca atua como o principal portal de descoberta para essas tecnologias, conferindo legitimação cognitiva aos sites e reduzindo a barreira de entrada.
A facilidade de acesso a essas ferramentas afeta diretamente o ambiente escolar, com um mapeamento da SaferNet Brasil identificando 173 vítimas de deepfakes sexuais em instituições de ensino de 10 estados brasileiros. O documento fundamenta a cobrança de desindexação no Marco Civil da Internet e na Lei Geral de Proteção de Dados Pessoais (LGPD).
Este conteúdo pode conter links de compra.
Fonte: link