Em resumo
- A Anthropic disse que interrompeu o que chamou de primeiro grande ataque cibernético executado principalmente por IA.
- A empresa atribuiu a operação a um grupo patrocinado pelo Estado chinês denominado GTG-1002.
- Claude Code realizou a maior parte do reconhecimento, exploração e extração de dados com pouca supervisão.
A Anthropic disse na quinta-feira que interrompeu o que chamou de a primeira operação de ciberespionagem em grande escala impulsionada em grande parte pela IA, ressaltando a rapidez com que agentes avançados estão remodelando o cenário de ameaças.
Em uma postagem de blog, a Anthropic disse que um grupo patrocinado pelo Estado chinês usou seu Claude Code, uma versão do Claude AI que roda em um terminal, para lançar operações de intrusão em uma velocidade e escala que seriam impossíveis de serem igualadas por hackers humanos.
“Este caso valida o que compartilhamos publicamente no final de setembro”, disse um porta-voz da Anthropic Descriptografar. “Estamos em um ponto de inflexão em que a IA está mudando significativamente o que é possível tanto para atacantes quanto para defensores.”
O porta-voz acrescentou que o ataque “provavelmente reflete como os atores da ameaça estão adaptando suas operações através de modelos de IA de fronteira, passando da IA como consultora para a IA como operadora”.
“Os invasores usaram as capacidades ‘agentes’ da IA em um grau sem precedentes – usando a IA não apenas como consultora, mas para executar eles próprios os ataques cibernéticos”, escreveu a empresa em seu post.
Grandes empresas de tecnologia, instituições financeiras, empresas de fabricação de produtos químicos e agências governamentais foram alvo, disse a Anthropic, com o ataque realizado por um grupo que a empresa rotulou de GTG-1002.
Como aconteceu
De acordo com a investigação, os invasores persuadiram Claude a realizar tarefas técnicas nos sistemas visados, enquadrando o trabalho como rotina para uma empresa legítima de segurança cibernética.
Depois que o modelo aceitou as instruções, ele executou sozinho a maioria das etapas do ciclo de vida da intrusão.
Embora não tenha especificado quais empresas foram visadas, a Anthropic disse que 30 foram visadas e que um pequeno número desses ataques foi bem-sucedido.
O relatório também documentou casos em que o Claude comprometido mapeou redes internas, localizou bases de dados de alto valor, gerou código de exploração, estabeleceu contas de backdoor e extraiu informações confidenciais com pouca supervisão direta.
O objetivo das operações parece ter sido a coleta de inteligência, com foco na extração de credenciais de usuários, configurações de sistemas e dados operacionais confidenciais, objetivos comuns na espionagem.
“Estamos compartilhando este caso publicamente para ajudar a indústria, o governo e a comunidade de pesquisa em geral a fortalecer suas próprias defesas cibernéticas”, disse o porta-voz.
A Antthropic disse que o ataque de IA teve “implicações substanciais para a segurança cibernética na era dos agentes de IA”.
“Não há solução para evitar 100% dos jailbreaks. Será uma luta contínua entre atacantes e defensores”, disse Sean Ren, professor de Ciência da Computação da USC e cofundador do Sahara AI. Descriptografar. “A maioria das empresas de modelos importantes, como OpenAI e Anthropic, investiram grandes esforços na construção de equipes vermelhas internas e equipes de segurança de IA para melhorar a segurança do modelo contra usos maliciosos.”
Ren apontou que a IA está se tornando mais popular e capaz como um fator-chave que permite que atores mal-intencionados planejem ataques cibernéticos conduzidos por IA.
Os atacantes, ao contrário dos ataques anteriores de “vibe hacking” que dependiam da direção humana, foram capazes de usar IA para realizar 80-90% da campanha, sendo a intervenção humana necessária apenas esporadicamente, afirmou o relatório. Pela primeira vez, as alucinações de IA mitigaram os danos.
“Claude nem sempre funcionava perfeitamente. Ocasionalmente, ele alucinava credenciais ou alegava ter extraído informações secretas que estavam de fato disponíveis publicamente”, escreveu a Anthropic. “Isso continua sendo um obstáculo para ataques cibernéticos totalmente autônomos.”
A Anthropic disse que expandiu as ferramentas de detecção, fortaleceu os classificadores com foco cibernético e começou a testar novos métodos para detectar ataques autônomos mais cedo. A empresa também disse que divulgou suas descobertas para ajudar equipes de segurança, governos e pesquisadores a se prepararem para casos semelhantes à medida que os sistemas de IA se tornam mais capazes.
Ren disse que embora a IA possa causar grandes danos, também pode ser aproveitada para proteger sistemas informáticos: “Com a escala e a automatização dos ataques cibernéticos avançando através da IA, temos de aproveitar a IA para construir sistemas de alerta e defesa”.
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




