Vulnerabilidade no Gemini: Google não Corrige Falha de Segurança
A Google decidiu não corrigir uma vulnerabilidade de segurança no seu assistente de inteligência artificial, o Gemini, que permite a execução de códigos maliciosos escondidos em textos invisíveis. Essa técnica é conhecida como ASCII smuggling e utiliza caracteres especiais do Unicode para inserir comandos de hackers de forma invisível ao usuário.
A brecha em si não é novidade, e desenvolvedores de inteligência artificial (IA) já conhecem a vulnerabilidade há muito tempo. No entanto, os riscos envolvidos têm crescido, pois assistentes como o Gemini para Android têm acesso mais profundo a dados sensíveis e mais autonomia para funcionar, elevando as chances de ataques.
- O pesquisador de segurança Viktor Markopoulos, da FireTail, testou as brechas de várias ferramentas de IA disponíveis no mercado, demonstrando vulnerabilidades ao ASCII smuggling em algumas delas.
- No Gemini, o problema ocorre nos convites de calendário e emails.
- Já no Claude, ChatGPT e Microsoft Copilot, a vulnerabilidade não está presente, pois as LLMs (Large Language Model) possuem validação de dados de entrada que impedem a infiltração de caracteres.
Markopoulos relatou os achados à Google, mas a empresa considerou que não se tratava de uma falha de segurança real, e sim um “problema que só pode ser explorado através de ataques de engenharia social”. No entanto, o especialista demonstrou que, através do Google Workspace, convites de calendário ou emails podem incluir os códigos maliciosos, especialmente no título, e que as instruções dos hackers podem instruir as LLMs a procurar dados sensíveis no aparelho da vítima, como um celular, e enviá-los aos golpistas.
A persistência do código pode levar ao download de malwares e outros elementos perigosos. É importante que os usuários fiquem atentos e tomem medidas para se proteger contra esses tipos de ataques.
Este conteúdo pode conter links de compra.
Fonte: link