Taylor Swift é alvo de nudes falsos após IA de Musk liberar ‘modo picante’

O gerador de imagens e vídeos Grok Imagine criou nudes falsos da cantora Taylor Swift sem nenhum tipo de restrição, segundo o site The Verge. 

A ferramenta conta com um modo chamado “Spicy” (“Picante”, em tradução livre), capaz de gerar imagens eróticas e até com nudez em alguns casos. No entanto, o recurso não aparenta trazer alguma barreira que impeça prompts sensíveis com figuras públicas — algo comum em outros geradores para evitar deepfakes.

A política de uso da xAI, desenvolvedora do Grok Imagine, proíbe “retratar imagens de pessoas de maneira pornográfica”, mas a empresa ainda não comentou o caso. As imagens geradas não foram publicadas no X, de acordo com a reportagem original.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Até o momento, representantes da artista ainda não se pronunciaram sobre o caso.

Deepfakes pornográficos são crime no Brasil

No Brasil, usar qualquer tecnologia que altera a imagem ou voz da vítima para fazer violência psicológica contra mulheres é crime. A Lei 15.125 proíbe a criação de deepfakes sem consentimento e teve pena aumentada neste ano, caso seja confirmado o uso de IA.

Cantora já foi vítima de deepfakes anteriormente

Não é a primeira vez que a cantora foi alvo de deepfakes eróticos feitos por IA generativa. Um caso similar aconteceu no começo do ano passado, com imagens publicadas no X, e gerou mobilização de fãs para denunciar posts e combater a prática. 

Meses depois, imagens falsas da cantora apoiando o então candidato Donald Trump na eleição presidencial dos Estados Unidos viralizaram. O fato fez com que Swift se pronunciasse nas redes sociais: a cantora destacou “medos sobre IA” e “perigos de espalhar desinformação” com a tecnologia.

Leia também:

VÍDEO: como funciona a rede “Encontre meu dispositivo” do Google

Leia a matéria no Canaltech.