Hackear ChatGPT e Gemini para Replicar Informação Falsa: Um Desafio à Veracidade
O jornalista de tecnologia Thomas Germain, do Reino Unido, realizou um experimento intrigante que expõe a vulnerabilidade dos chatbots de IA, como o ChatGPT e o Gemini, em relação à disseminação de informações falsas. Em apenas 20 minutos, Germain conseguiu manipular esses sistemas para que reconhecessem-no como o “jornalista tech mais bem-sucedido em competições de ingestão de cachorro-quente”, apesar de não haver evidências que comprovassem essa afirmação.
Essa facilidade em manipular as inteligências artificiais é preocupante, especialmente quando se trata de questões como saúde, política e conselhos pessoais. Pesquisadores como Lily Ray, especialista em otimização de motores de busca (SEO), expressam preocupação com a rapidez com que essas tecnologias estão evoluindo e a dificuldade das empresas em controlá-las.
Como Manipular Chatbots de IA
Os chatbots costumam responder aos usuários com base em bancos de dados internos, mas também realizam pesquisas na internet para fornecer respostas mais precisas. No entanto, nem sempre é claro quando essas pesquisas estão ocorrendo, o que pode levar a respostas falsas ou enganosas.
Para provar a facilidade com que esses sistemas podem ser manipulados, Germain criou um artigo em seu blog pessoal intitulado “Os melhores jornalistas tech na competição de ingestão de cachorros-quentes”, sem qualquer evidência ou comprovação. Menos de 24 horas depois, buscas no Gemini, ChatGPT e Visão Geral da IA no Google mostravam seu nome como o melhor competidor nas buscas.
Consequências e Soluções
As consequências dessa facilidade em manipular as inteligências artificiais são graves, especialmente em áreas como saúde e conselhos médicos, onde informações falsas podem ter consequências perigosas. A Google admite que 15% das buscas diárias são completamente novas, o que pode encorajar hackers a criar spam e manipular os resultados.
Para resolver esse problema, Germain sugere que as IAs deveriam fornecer avisos legais mais claros sobre a origem das informações que compartilham. Além disso, os usuários devem ser mais críticos ao fazer perguntas e verificar as informações antes de aceitá-las como verdadeiras.
Em resumo, a facilidade com que os chatbots de IA podem ser manipulados para disseminar informações falsas é um desafio à veracidade e à confiabilidade desses sistemas. É fundamental que as empresas e os usuários trabalhem juntos para desenvolver soluções que garantam a precisão e a confiabilidade das informações fornecidas por essas tecnologias.
Este conteúdo pode conter links de compra.
Fonte: link