Columbus, Ohio
Hora local: 21:43
Temperatura: 16.7°C
Probabilidade de chuva: 0%

Os Chatbots de IA Estão Fornecendo Mais Informações Falsas do Que Nunca

Forbes, a mais conceituada revista de negócios e economia do mundo.

Os chatbots de IA estão piorando drasticamente na disseminação de mentiras, de acordo com uma nova análise. Pesquisadores da NewsGuard analisaram como as dez principais ferramentas de IA generativa do mundo — ChatGPT-5 da OpenAI, Smart Assistant da You.com, Grok da xAI, Pi da Inflection, le Chat da Mistral, Copilot da Microsoft, Meta AI, Claude da Anthropic, Gemini do Google e mecanismo de resposta da Perplexity — lidam com alegações comprovadamente falsas.

E, em média, eles descobriram que os chatbots espalharam falsas alegações quando questionados sobre tópicos de notícias controversos em 35% das vezes — quase o dobro da taxa de 18% de um ano atrás. O pior desempenho foi o da Inflection, que, segundo a equipe, apresentou informações falsas sobre notícias em 57% das vezes. A taxa para Perplexity foi de 47% e para Meta e ChatGPT foi de 40%. Claude foi o mais preciso, apresentando informações falsas em apenas 10% das vezes.

O grande salto parece ter ocorrido porque os chatbots agora respondem a todas as solicitações recebidas, em vez de se recusarem a responder a certas solicitações. Nesta mesma época do ano passado, disseram os pesquisadores, eles se recusavam a responder a cerca de uma em cada três solicitações.

A editora de IA e influência estrangeira da NewsGuard, McKenzie Sadeghi, sugere que o motivo reside em uma mudança na forma como as ferramentas de IA são treinadas. Em vez de citar limites de dados ou se recusar a opinar sobre tópicos sensíveis como costumavam fazer, disse ela, os LLMs agora extraem dados de pesquisas na web em tempo real — que às vezes são deliberadamente disseminadas por redes massivas de atores mal intencionados.

No início deste ano, por exemplo, a NewsGuard descobriu que as dez principais ferramentas de IA generativa estavam impulsionando os esforços de desinformação de Moscou ao repetir falsas alegações da rede pró-Kremlin Pravda em 33% das vezes. Como resultado, afirmou, grandes quantidades de propaganda russa — 3.600.000 artigos no total no ano passado — agora estão incorporadas aos resultados dos sistemas de IA ocidentais, infectando suas respostas com falsas alegações e propaganda.

Uma investigação recente do American Sunlight Project descobriu que o número de domínios e subdomínios associados ao Pravda quase dobrou, para 182. E o fato de esses sites terem uma usabilidade muito ruim, sem função de busca, formatação ruim e rolagem não confiável, é, disse a equipe, um sinal de que eles não estão atrás de leitores, mas sim de LLMs.

“À medida que as operações de influência russas se expandem e avançam, elas representam uma ameaça direta à integridade do discurso democrático em todo o mundo”, disse a cofundadora e CEO do American Sunlight Project, Nina Jankowicz.

A capacidade da rede Pravda de disseminar desinformação em tamanha escala não tem precedentes, e seu potencial para influenciar sistemas de IA torna essa ameaça ainda mais perigosa. À medida que a desinformação se torna mais disseminada, e na ausência de regulamentação e supervisão nos Estados Unidos, os usuários da internet precisam ser ainda mais cautelosos com as informações que consomem.

O último relatório do NewsGuard é a primeira vez que ele nomeia e envergonha chatbots específicos.

“No último ano, mantivemos os resultados da nossa auditoria de IA anônimos para incentivar a colaboração com as plataformas. Mas os riscos aumentaram demais”, disse Matt Skibinski, diretor de operações da NewsGuard.

“Ao nomear os chatbots, estamos dando aos formuladores de políticas, jornalistas, ao público e às próprias plataformas uma visão clara de como as principais ferramentas de IA funcionam quando confrontadas com alegações comprovadamente falsas.”

com.br/">Forbes Brasil.