bukib
0 bukibs
Columbus, Ohio
Hora local: 17:17
Temperatura: °C
Probabilidade de chuva: %

Nova Falha no ChatGPT Permite Roubo de Dados e Histórico de Conversas

A popularidade do ChatGPT tem atraído a atenção de cibercriminosos, que descobriram uma falha de segurança na plataforma da OpenAI que permite o roubo de dados dos usuários e até mesmo o controle do chatbot. De acordo com um relatório da Tenable Research, sete falhas de segurança foram encontradas, incluindo a “injeção de prompt”, que consiste no envio de instruções maliciosas ao chatbot.

Os especialistas em cibersegurança demonstraram como as vulnerabilidades podem ser exploradas pelos criminosos, encontrando práticas preocupantes para os usuários do ChatGPT. A ameaça está em uma falha que permite que os criminosos insiram instruções maliciosas ao chatbot, sem que o usuário perceba o que realmente está acontecendo.

Ataques na Prática

Há duas formas encontradas pelos especialistas de como as falhas do ChatGPT podem ser exploradas pelos cibercriminosos:

  • A primeira é quando o hacker insere um comentário em um blog que traz um prompt malicioso. Caso o usuário peça à ferramenta da OpenAI para resumir o que está escrito na página, o ChatGPT pode ser enganado com o comando.
  • A segunda é um ataque de clique zero, sem que o usuário precise interagir ativamente para que o crime aconteça. Nesse caso, o hacker pode criar um site, por exemplo, indexando na ferramenta de busca do ChatGPT.

Outra descoberta da Tenable Research é como esses ataques conseguem passar despercebidos pelo sistema de segurança da ferramenta de IA, além de também serem duradouros. A falha permite que prompts comprometidos fiquem salvos no histórico permanente do usuário, abrindo espaço para que o código malicioso roube dados sensíveis da vítima toda vez que ela interage com o chatbot.

Desafio para as Empresas de IA

Todas as táticas analisadas mostram como a IA pode enganar a si mesma com um empurrãozinho de atividades criminosas, seguindo instruções corrompidas que o usuário não consegue identificar durante a interação com a ferramenta. A OpenAI foi informada acerca da falha de segurança, confirmada até o momento nos modelos ChatGPT 4 e GPT-5, mas ainda não há informações sobre a correção da vulnerabilidade.

Este conteúdo pode conter links de compra.

Fonte: link