Em resumo
- A Anthropic testou dez modelos de IA em 405 explorações históricas de contratos inteligentes e reproduziu 207 deles.
- Três modelos geraram US$ 4,6 milhões em explorações simuladas em contratos criados após o corte do treinamento.
- Os agentes também descobriram duas novas vulnerabilidades de dia zero em contratos recentes da Binance Smart Chain.
Os agentes de IA igualaram o desempenho de atacantes humanos qualificados em mais da metade das explorações de contratos inteligentes registradas nas principais blockchains nos últimos cinco anos, de acordo com novos dados divulgados na segunda-feira pela Anthropic.
A Anthropic avaliou dez modelos de fronteira, incluindo Llama 3, Sonnet 3.7, Opus 4, GPT-5 e DeepSeek V3, em um conjunto de dados de 405 explorações históricas de contratos inteligentes. Os agentes produziram ataques operacionais contra 207 deles, totalizando US$ 550 milhões em fundos simulados roubados.
As descobertas mostraram a rapidez com que os sistemas automatizados podem transformar vulnerabilidades em armas e identificar novas que os desenvolvedores não abordaram.
A nova divulgação é a mais recente do desenvolvedor do Claude AI. No mês passado, a Anthropic detalhou como os hackers chineses usaram o Claude Code para lançar o que chamou de primeiro ataque cibernético baseado em IA.
Especialistas em segurança disseram que os resultados confirmaram o quão acessíveis muitas dessas falhas já são.
“A IA já está sendo usada em ferramentas ASPM como Wiz Code e Apiiro, e em scanners SAST e DAST padrão”, disse David Schwed, COO da SovereignAI. Descriptografar. “Isso significa que os malfeitores usarão a mesma tecnologia para identificar vulnerabilidades.”
Schwed disse que os ataques baseados em modelos descritos no relatório seriam fáceis de escalar porque muitas vulnerabilidades já são divulgadas publicamente por meio de Vulnerabilidades e Exposições Comuns ou relatórios de auditoria, tornando-as aprendíveis por sistemas de IA e fáceis de tentar contra contratos inteligentes existentes.
“Ainda mais fácil seria encontrar uma vulnerabilidade divulgada, encontrar projetos que bifurcaram esse projeto e apenas tentar essa vulnerabilidade, que pode não ter sido corrigida”, disse ele. “Tudo isso pode ser feito agora, 24 horas por dia, 7 dias por semana, em todos os projetos. Mesmo aqueles que agora têm TVLs menores são alvos, porque por que não? É uma agência.”
Para medir as capacidades atuais, a Anthropic traçou a receita total de exploração de cada modelo em relação à data de lançamento, usando apenas os 34 contratos explorados após março de 2025.
“Embora a receita total de exploração seja uma métrica imperfeita – já que algumas explorações atípicas dominam a receita total – nós a destacamos em relação à taxa de sucesso de ataque porque os invasores se preocupam com quanto dinheiro os agentes de IA podem extrair, não com o número ou dificuldade dos bugs que encontram”, escreveu a empresa.
A Anthropic não respondeu imediatamente aos pedidos de comentários de Descriptografar.
A Anthropic disse que testou os agentes em um conjunto de dados de dia zero de 2.849 contratos extraídos de mais de 9,4 milhões na Binance Smart Chain.
A empresa disse que Claude Sonnet 4.5 e GPT-5 descobriram, cada um, duas falhas não reveladas que produziram US$ 3.694 em valor simulado, com o GPT-5 alcançando seu resultado a um custo de API de US$ 3.476. A Anthropic observou que todos os testes foram executados em ambientes sandbox que replicavam blockchains e não em redes reais.
Seu modelo mais forte, Claude Opus 4.5, explorou 17 das vulnerabilidades pós-março de 2025 e foi responsável por US$ 4,5 milhões do valor total simulado.
A empresa vinculou melhorias em todos os modelos a avanços no uso de ferramentas, recuperação de erros e execução de tarefas em longo prazo. Em quatro gerações de modelos Claude, os custos dos tokens caíram 70,2%.
Uma das falhas recém-descobertas envolvia um contrato de token com uma função de calculadora pública que não possuía um modificador de visualização, o que permitia ao agente alterar repetidamente variáveis de estado internas e vender saldos inflacionados em exchanges descentralizadas. A exploração simulada gerou cerca de US$ 2.500.
Schwed disse que os problemas destacados no experimento eram “na verdade apenas falhas de lógica de negócios”, acrescentando que os sistemas de IA podem identificar essas fraquezas quando dada estrutura e contexto.
“A IA também pode descobri-los com a compreensão de como um contrato inteligente deve funcionar e com instruções detalhadas sobre como tentar contornar as verificações lógicas no processo”, disse ele.
A Antthropic disse que as capacidades que permitiram aos agentes explorar contratos inteligentes também se aplicam a outros tipos de software, e que a queda dos custos diminuirá a janela entre a implantação e a exploração. A empresa incentivou os desenvolvedores a adotarem ferramentas automatizadas em seus fluxos de trabalho de segurança para que o uso defensivo avance tão rapidamente quanto o uso ofensivo.
Apesar do alerta da Antrópico, Schwed disse que a perspectiva não é apenas negativa.
“Eu sempre rejeito a desgraça e a tristeza e digo que com controles adequados, testes internos rigorosos, juntamente com monitoramento em tempo real e disjuntores, a maioria deles é evitável”, disse ele. “Os bons atores têm o mesmo acesso aos mesmos agentes. Portanto, se os maus atores conseguem encontrá-lo, os bons atores também podem. Temos que pensar e agir de forma diferente.”
Geralmente inteligente Boletim informativo
Uma jornada semanal de IA narrada por Gen, um modelo generativo de IA.
Fontedecrypt




