Decrypt logoImage: Decrypt

Em resumo

  • Os pesquisadores da HiddenLayer detalharam um novo “vírus” da IA ​​que se espalha por assistentes de codificação.
  • O ataque Copypasta usa avisos ocultos disfarçados de arquivos de licença para replicar através do código.
  • Um pesquisador recomenda defesas de tempo de execução e críticas estritas para bloquear ataques rápidos de injeção em escala.

Os hackers agora podem armar os assistentes de codificação de IA usando nada além de um arquivo de licença com captura de peito, transformando ferramentas de desenvolvedor em espalhadores silenciosos de código malicioso. Isso está de acordo com um novo relatório da empresa de segurança cibernética Hiddenlayer, que mostra como a IA pode ser levada a copiar cegamente malware em projetos.

A técnica de prova de conceito-obteve o “ataque de licença copypasta”-explosou como as ferramentas de IA lidam com arquivos comuns de desenvolvedor como License.txt e ReadMe.md. Ao incorporar instruções ocultas ou “injeções rápidas”, nesses documentos, os invasores podem manipular os agentes da IA ​​para injetar código malicioso sem que o usuário o realize.

“Recomendamos que as defesas de tempo de execução em vigor contra injeções rápidas indiretas e garantam que qualquer mudança comprometida com um arquivo seja revisada”, disse Kenneth Yeung, pesquisador da Hiddenlayer e autor do relatório, disse Descriptografar.

O Copypasta é considerado um vírus e não um verme, explicou Yeung, porque ainda exige que a ação do usuário se espalhe. “Um usuário deve agir de alguma forma para a carga útil maliciosa se propagar”, disse ele.

Apesar de exigir alguma interação do usuário, o vírus foi projetado para passar pela atenção humana, explorando a maneira como os desenvolvedores dependem de agentes de IA para lidar com documentação de rotina.

“Copypasta se esconde em comentários invisíveis enterrados nos arquivos ReadMe, que os desenvolvedores geralmente delegam a agentes ou modelos de idiomas de IA para escrever”, disse ele. “Isso permite que se espalhe de uma maneira furtiva, quase indetectável.”

Copypasta não é a primeira tentativa de infectar sistemas de IA. Em 2024, os pesquisadores apresentaram um ataque teórico chamado Morris II, projetado para manipular os agentes de e -mail da IA ​​para espalhar spam e roubar dados. Embora o ataque tenha uma alta taxa de sucesso teórica, ele falhou na prática devido a capacidades limitadas do agente, e as etapas de revisão humana até agora impediram que esses ataques fossem vistos na natureza.

Embora o ataque Copypasta seja uma prova de conceito somente para laboratório, os pesquisadores dizem que destaca como os assistentes de IA podem se tornar cúmplices involuntários em ataques.

A questão central, dizem os pesquisadores, é a confiança. Os agentes da IA ​​são programados para tratar os arquivos de licença como importantes e geralmente obedecem a instruções incorporadas sem escrutínio. Isso abre a porta para os atacantes explorarem as fraquezas – especialmente à medida que essas ferramentas ganham mais autonomia.

Copypasta segue uma série de avisos recentes sobre ataques de injeção rápidos direcionados às ferramentas de IA.

Em julho, o CEO da Openai, Sam Altman, alertou sobre ataques rápidos de injeção quando a empresa lançou seu agente do ChatGPT, observando que instruções maliciosas poderiam seqüestrar o comportamento de um agente. Esse aviso foi seguido em agosto, quando o Brave Software demonstrou uma falha de injeção imediata na extensão do navegador da perplexidade da IA, mostrando como os comandos ocultos em um comentário do Reddit podem fazer com que o assistente vazasse dados privados.

Geralmente inteligente Boletim informativo

Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *