IA comete erros graves ao responder sobre notícias e confunde fato com opinião
Um estudo recente conduzido pela European Broadcasting Union (EBU) em parceria com a BBC revelou que assistentes de inteligência artificial ainda apresentam sérios problemas ao lidar com notícias. Os modelos analisados, incluindo o Google Gemini, Microsoft Copilot, ChatGPT e Perplexity, apresentaram taxas de erro significativas, com o Google Gemini sendo apontado como o pior desempenho geral, com 76% das respostas contendo erros graves de fato ou de fonte.
Os erros mais comuns incluem confundir fontes, apresentar informações desatualizadas ou transformar opiniões em fatos. Esse cenário preocupa especialmente considerando que a IA tem sido cada vez mais utilizada como alternativa a motores de busca e resumos de notícias. A confusão entre opinião e fato afeta a percepção de confiabilidade dos usuários, com 84% afirmando que erros factuais impactariam sua confiança.
- 45% das respostas de IA continham pelo menos um erro significativo;
- 76% dos usuários destacaram a importância da correta atribuição das fontes;
- 36% dos adultos no Reino Unido acreditam que os desenvolvedores de IA devem garantir a precisão.
Os usuários jovens, principalmente com menos de 25 anos, são os que mais recorrem a assistentes de IA para notícias, aumentando o risco de exposição a informações imprecisas. Diante disso, é fundamental que os desenvolvedores de IA, governos e reguladores trabalhem juntos para estabelecer normas e garantir a precisão das informações fornecidas por essas ferramentas.
Embora assistentes de IA como ChatGPT, Copilot e Gemini ofereçam conveniência na hora de buscar informações, eles não substituem fontes jornalísticas confiáveis. O estudo da EBU e da BBC evidencia que, diante de falhas frequentes, usuários devem adotar uma postura crítica e verificar múltiplas fontes antes de confiar em qualquer resumo gerado por IA.
Este conteúdo pode conter links de compra.
Fonte: link