bukib
0 bukibs
Columbus, Ohio
Hora local: 00:53
Temperatura: 1.4°C
Probabilidade de chuva: 0%

Campanhas de Ataque a Modelos de Linguagem de IA

Com o aumento da popularidade de ferramentas de inteligência artificial (IA), os cibercriminosos encontraram uma nova fonte de interesse. Pesquisadores da GreyNoise identificaram duas novas campanhas voltadas para a exploração de vulnerabilidades de modelos LLM (grande modelo de linguagem) que juntas já somam quase 100 mil casos.

De acordo com os especialistas, os 91.403 ataques visaram modelos de linguagem de IAs usados principalmente por empresas. O objetivo é fazer uma espécie de mapeamento de como as corporações estão implementando tais recursos no dia a dia para aumentar a eficácia de atividades maliciosas.

As Duas Campanhas

As duas campanhas em questão foram detectadas inicialmente entre os meses de outubro de 2025 e janeiro deste ano. Para encontrá-las, a GreyNoise usou contas honeypot, perfis com dados falsos de usuários que são usados como isca para capturar criminosos digitais.

  • A primeira campanha, que agiu no fim de 2025, tinha como objetivo injetar domínios maliciosos para forçar os servidores a fazerem solicitações HTTP à estrutura do hacker.
  • Já o segundo ciberataque é o mais perigoso, na visão dos pesquisadores. Iniciada em dezembro de 2025, a campanha teve como alvo “todas as principais famílias de modelos LLM”, incluindo os usados por empresas como OpenAI, Anthropic, Meta, DeepSeek, Google e X.

Riscos e Medidas de Segurança

Falando especificamente sobre o ambiente corporativo, ataques contra LLMs podem significar riscos alarmantes para a segurança de negócios, principalmente com o uso crescente de IAs por parte de organizações.

A recomendação, então, é que sejam adotadas medidas de segurança mais robustas e pertinentes ao cenário atual, protegendo LLMs de possíveis ameaças digitais que podem comprometer a integridade de funcionários e de informações sigilosas de companhias.

Bloquear endereços suspeitos e configurar alertas para garantir respostas rápidas da equipe também são medidas que podem garantir uma maior segurança de modelos de IA na rotina corporativa.

Este conteúdo pode conter links de compra.

Fonte: link