bukib
0 bukibs
Columbus, Ohio
Hora local: 14:39
Temperatura: °C
Probabilidade de chuva: %

Golpistas Envenenam Buscas de IA com Falsos Números de Suporte

As técnicas de envenenamento de IA e injeção de prompt estão se tornando cada vez mais avançadas, acompanhando a evolução dos próprios large language models (LLMs). Agora, cibercriminosos estão promovendo números falsos de call center e suporte ao cliente nas fontes públicas usadas pelos chatbots.

De acordo com uma análise publicada pela Aurascape, essa técnica é conhecida como “envenenamento de números de telefone de LLM”. Ela afeta IAs como a Visão Geral da Google e o navegador Comet, da Perplexity. A diferença nesse tipo de ataque é que ele não mira diretamente nos modelos de linguagem, mas sim em afetar o conteúdo que os chatbots pesquisam para dar suas respostas.

Como Funciona o Envenenamento de Números de Telefone de LLM

Os golpistas utilizam a otimização de motor generativo (GEO) para garantir que um site ou serviço online vire uma fonte usada para resumos de IA e pesquisas em chatbots. Isso é feito ao subir conteúdo de spam em sites legítimos e confiáveis que foram comprometidos, como governamentais e de universidades. Serviços públicos que permitem conteúdo gerado por usuários também são abusados, como YouTube e Yelp, recebendo respostas e números de telefone falsos.

Exemplos incluem resultados de busca pelo número oficial de reservas para Emirate Airlines e British Airlines, que retornam call centers fraudulentos como se fossem respostas legítimas. O problema principal é que as LLMs puxam tanto conteúdo legítimo quanto fraudulento, dificultando a detecção de golpes.

Recomendações para os Usuários

Para evitar cair nesses golpes, é importante sempre checar, na fonte e em outros sites, a veracidade da informação oferecida, especialmente no que tange a números de contato. Além disso, é preciso evitar oferecer qualquer informação sensível a assistentes de IA, especialmente se lembrarmos o quão pouco eles foram testados até hoje.

  • Verifique a veracidade da informação oferecida.
  • Evite oferecer informações sensíveis a assistentes de IA.
  • Seja cético com respostas que pareçam suspeitas ou inconsistentes.

Em resumo, a conveniência da IA não quer dizer, de forma alguma, que ela é segura. É importante estar ciente desses riscos e tomar medidas para proteger-se contra golpistas que envenenam buscas de IA com falsos números de suporte.

Este conteúdo pode conter links de compra.

Fonte: link