Meta Falha ao Moderar Deepfakes e é Cobrada por Comitê
O Comitê de Supervisão da Meta avaliou que as ferramentas da empresa para identificar deepfakes são insuficientes para conter a rápida disseminação de desinformação em períodos de conflitos armados. Um exemplo disso é a guerra no Irã, onde a desinformação pode se espalhar rapidamente.
Um vídeo falso, criado por inteligência artificial (IA), que exibia supostos danos a edifícios em Israel, circulou nas plataformas da companhia no ano passado e acumulou visualizações antes de ser interceptado. Isso destacou as lacunas de segurança da Meta em relação ao conteúdo gerado por IA.
Investigação e Relatório
A investigação do Comitê de Supervisão destacou que as lacunas de segurança se agravam quando o conteúdo viraliza em momentos de crise, afetando narrativas globais. O relatório apontou que o arquivo original surgiu no TikTok antes de atingir as redes da Meta e o X.
Atualmente, a Meta adota abordagens baseadas em padrões da indústria, como a Coalition for Content Provenance and Authenticity (C2PA). No entanto, o conselho concluiu que a ampla maioria das publicações com IA circula sem esses marcadores, tornando difícil identificar a origem sintética das imagens ou vídeos.
Recomendações do Comitê
Para corrigir as vulnerabilidades, o Comitê de Supervisão recomendou o desenvolvimento de sistemas proativos de detecção que operem em tempo real. As orientações incluem:
- A aplicação de rótulos mais proeminentes para identificar conteúdo gerado por IA;
- A construção de sistemas capazes de identificar manipulações mesmo na ausência de metadados voluntários;
- A melhoria das regras de desinformação vigentes para abranger deepfakes enganosos;
- A criação de um padrão da comunidade voltado exclusivamente para mídias geradas por IA.
A companhia possui um prazo padrão de 60 dias para responder formalmente às diretrizes do conselho. Embora as decisões do painel de supervisão não possuam caráter tecnicamente obrigatório, ignorar as orientações pode configurar um risco de relações públicas e atrair intenso escrutínio regulatório.
Este conteúdo pode conter links de compra.
Fonte: link