bukib
0 bukibs
Columbus, Ohio
Hora local: 05:28
Temperatura: 14.1°C
Probabilidade de chuva: 1%

A banalização do deepfake: como ‘pornô falso’ com famosas virou conteúdo em sites adultos

A Banalização do Deepfake: Um Problema de Violência e Consumo

O avanço da inteligência artificial transformou a “pornografia sem consentimento” em uma forma de violência sob demanda, facilmente acessível em plataformas, aplicativos e serviços. O debate atual não se concentra apenas na sofisticação técnica dessas ferramentas, mas na facilidade com que elas são embaladas como produtos acessíveis e consumíveis.

A oferta de serviços para manipular rostos e criar conteúdo falso circula em anúncios de sites de conteúdo adulto. Isso torna o ato de criar e consumir esse tipo de conteúdo fácil e conveniente, minimizando a percepção de que se trata de um abuso. Além disso, empresas estão criando “gêmeas digitais” de atrizes pornôs com IA, o que aumenta a disponibilidade e a acessibilidade desses conteúdos.

Do Conceito à Realidade

A lógica por trás da criação e do consumo desses conteúdos é a mesma, independentemente de se tratar de celebridades ou pessoas comuns: transformar imagens íntimas sintéticas não consensuais em mercadorias. O problema não está apenas na falsidade visual, mas no modelo de negócio que vende intimidade forjada como serviço.

As plataformas permitem que usuários enviem fotos de colegas, conhecidas ou ex-parceiras, convertendo proximidade social em valor de consumo e de circulação. Quanto maior a familiaridade do usuário com a vítima, maior o valor do conteúdo para quem consome ou compartilha. Isso indica que o modelo de negócio se sustenta por crenças que minimizam o dano, como a ideia de que figuras públicas são alvos legítimos ou de que não existe violência ou crime nos casos de manipulação de imagem.

  • Uma pesquisa realizada pela University College Cork (UCC) confirmou que a crença nesses mitos aumenta a propensão de usuários a assistir, criar ou compartilhar esse tipo de material.
  • Um projeto lançado pelo instituto alemão ITAS-KIT estima que 98% dos deepfakes são pornográficos.
  • A violência ocorre porque a agressão forja e reencena a intimidade da vítima, expondo seu corpo de maneira sexualizada sem consentimento e retirando dela o controle sobre a própria imagem.

O combate a esse tipo de violência exige mais regulação e educação do usuário. Além disso, as punições não avançam porque os agressores permanecem anônimos e as vítimas evitam a denúncia formal. É necessário um esforço conjunto para combater essa forma de violência e proteger as vítimas.

Este conteúdo pode conter links de compra.

Fonte: link