Decrypt logoSource: Decrypt/Shutterstock

Em resumo

  • O Google identificou cinco famílias de malware que consultam LLMs para gerar ou ocultar código malicioso.
  • Um grupo ligado à RPDC chamado UNC1069 usou o Gemini para investigar dados de carteiras e criar scripts de phishing.
  • O Google afirma que desativou as contas e reforçou as proteções em relação ao acesso aos modelos.

O Google alertou que várias novas famílias de malware agora usam grandes modelos de linguagem durante a execução para modificar ou gerar código, marcando uma nova fase na forma como atores criminosos e ligados ao Estado estão implantando inteligência artificial em operações ao vivo.

Em um relatório lançado esta semana, o Google Threat Intelligence Group disse que rastreou pelo menos cinco tipos distintos de malware habilitado para IA, alguns dos quais já foram usados ​​em ataques contínuos e ativos.

As famílias de malware recém-identificadas “geram scripts maliciosos dinamicamente, ofuscam seu próprio código para evitar a detecção”, ao mesmo tempo que fazem uso de modelos de IA “para criar funções maliciosas sob demanda”, em vez de tê-los codificados em pacotes de malware, afirmou o grupo de inteligência de ameaças.

Cada variante aproveita um modelo externo como Gemini ou Qwen2.5-Coder durante o tempo de execução para gerar ou ofuscar código, um método que o GTIG apelidou de “criação de código just-in-time”.

A técnica representa uma mudança no design tradicional de malware, onde a lógica do malware é normalmente codificada no binário.

Ao terceirizar partes de sua funcionalidade para um modelo de IA, o malware pode fazer alterações continuamente para se fortalecer contra sistemas projetados para detê-lo.

Duas das famílias de malware, PROMPTFLUX e PROMPTSTEAL, demonstram como os invasores estão integrando modelos de IA diretamente em suas operações.

O resumo técnico do GTIG descreve como o PROMPTFLUX executa um processo “Thinking Robot” que chama a API do Gemini a cada hora para reescrever seu próprio código VBScript, enquanto o PROMPTSTEAL, vinculado ao API da Rússia Grupo APT28usa o modelo Qwen hospedado no Hugging Face para gerar comandos do Windows sob demanda.

O grupo também identificou atividades de um grupo norte-coreano conhecido como UNC1069 (Masan) que fez mau uso do Gemini.

A unidade de pesquisa do Google descreve o grupo como “um ator de ameaça norte-coreano conhecido por conduzir campanhas de roubo de criptomoedas aproveitando a engenharia social”, com uso notável de “linguagem relacionada à manutenção de computadores e coleta de credenciais”.

De acordo com o Google, as consultas do grupo ao Gemini incluíam instruções para localizar dados de aplicativos de carteira, gerar scripts para acessar armazenamento criptografado e redigir conteúdo de phishing multilíngue destinado a funcionários de trocas de criptografia.

Estas atividades, acrescenta o relatório, parecem fazer parte de uma tentativa mais ampla de construir código capaz de roubar ativos digitais.

O Google disse que já desativou as contas vinculadas a essas atividades e introduziu novas salvaguardas para limitar o abuso de modelo, incluindo filtros de alerta refinados e monitoramento mais rígido do acesso à API.

As descobertas podem apontar para uma nova superfície de ataque onde o malware consulta LLMs em tempo de execução para localizar armazenamento de carteira, gerar scripts de exfiltração personalizados e criar iscas de phishing altamente confiáveis.

Descriptografar abordou o Google sobre como o novo modelo poderia mudar as abordagens de modelagem e atribuição de ameaças, mas ainda não recebeu uma resposta.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *