Em resumo
- Em uma demonstração, o assistente de IA da Comet seguiu instruções incorporadas e publicou e -mails e códigos privados.
- Brave diz que a vulnerabilidade permaneceu explorável semanas depois que a perplexidade alegou ter consertado.
- Especialistas alertam que ataques de injeção prontos expõem profundas lacunas de segurança nos sistemas de agentes de IA.
O Brave Software descobriu uma falha de segurança no navegador Comet da Perplexity AI, que mostrou como os atacantes poderiam enganar seu assistente de IA a vazar dados do usuário privado.
Em uma demonstração de prova de conceito publicada em 20 de agosto, pesquisadores corajosos identificaram instruções ocultas dentro de um comentário do Reddit. Quando o assistente de IA da Comet foi convidado a resumir a página, ele não resume apenas – seguiu os comandos ocultos.
Perplexidade contestou a gravidade da descoberta. Um porta -voz contou Descriptografar O problema “foi corrigido antes de alguém notar” e disse que nenhum dados do usuário foi comprometido. “Temos um programa de recompensa bastante robusto”, acrescentou o porta -voz. “Trabalhamos diretamente com o Brave para identificá -lo e repará -lo.”
O Brave, que está desenvolvendo seu próprio navegador agêntico, sustentou que a falha permaneceu explorável semanas após o patch e argumentou que o design do cometa o deixa aberto a mais ataques.
Brave disse que a vulnerabilidade se resume a como navegadores agênticos como o Conteúdo da Web do Process Comet. “Quando os usuários solicitam que ele resuma uma página, o Cometa alimenta parte dessa página diretamente ao seu modelo de idioma sem distinguir entre as instruções do usuário e o conteúdo não confiável”, explicou o relatório. “Isso permite que os atacantes incorporem comandos ocultos que a IA será executada como se fosse do usuário.”
Injeção rápida: idéia antiga, novo alvo
Esse tipo de exploração é conhecido como um ataque de injeção imediata. Em vez de enganar uma pessoa, ele engana um sistema de IA escondendo instruções em texto simples.
“É semelhante aos ataques tradicionais de injeção – injeção de SQL, injeção de LDAP, injeção de comando”, disse Matthew Mullins, hacker principal da Reveal Security, Descriptografar. “O conceito não é novo, mas o método é diferente. Você está explorando a linguagem natural em vez de código estruturado.”
Os pesquisadores de segurança estão alertando há meses para que a injeção imediata possa se tornar uma grande dor de cabeça à medida que os sistemas de IA ganham mais autonomia. Em maio, os pesquisadores de Princeton mostraram como os agentes criptográficos da IA poderiam ser manipulados com ataques de “injeção de memória”, onde informações maliciosas são armazenadas na memória de uma IA e depois agiram como se fossem reais.
Até Simon Willison, o desenvolvedor creditado por cunhar o termo injeção imediatadisse que o problema vai muito além do cometa. “A corajosa equipe de segurança relatou vulnerabilidades de injeção rápida graves, mas a si mesma está desenvolvendo um recurso semelhante que parece condenado a ter problemas semelhantes”, ele postou no X.
Shivan Sahib, vice -presidente de privacidade e segurança da Brave, disse que seu próximo navegador incluiria “um conjunto de atenuações que ajudam a reduzir o risco de injeções rápidas indiretas”.
“Estamos planejando isolar a navegação agêntica em sua própria área de armazenamento e sessões de navegação, para que um usuário não acabe concedendo acesso ao seu banco e outros dados confidenciais ao agente”, disse ele Descriptografar. “Em breve compartilharemos mais detalhes.”
O maior risco
A demonstração do cometa destaca um problema mais amplo: os agentes da IA estão sendo implantados com permissões poderosas, mas controles de segurança fracos. Como os grandes modelos de linguagem podem interpretar mal as instruções – ou segui -las também literalmente – elas são especialmente vulneráveis a avisos ocultos.
“Esses modelos podem alucinar”, alertou Mullins. “Eles podem sair completamente dos trilhos, como perguntar: ‘Qual é o seu sabor favorito de Twizzler?’ e obtendo instruções para fazer uma arma caseira. ”
Com os agentes de IA recebendo acesso direto a e -mails, arquivos e sessões de usuários ao vivo, as apostas são altas. “Todo mundo quer investir a IA em tudo”, disse Mullins. “Mas ninguém está testando o que as permissões o modelo tem, ou o que acontece quando vazar.”
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt