Os agentes de IA estão se tornando bons o suficiente para encontrar vetores de ataque em contratos inteligentes que já podem ser transformados em armas por malfeitores, de acordo com uma nova pesquisa publicada pelo programa Anthropic Fellows.
Um estudo realizado pelo ML Alignment & Theory Scholars Program (MATS) e pelo programa Anthropic Fellows testou modelos de fronteira em relação ao SCONE-bench, um conjunto de dados de 405 contratos explorados. GPT-5, Claude Opus 4.5 e Sonnet 4.5 produziram coletivamente US$ 4,6 milhões em explorações simuladas em contratos hackeados após seus cortes de conhecimento, oferecendo um limite inferior sobre o que esta geração de IA poderia ter roubado na natureza.
A equipe descobriu que os modelos de fronteira não identificavam apenas bugs. Eles foram capazes de sintetizar scripts de exploração completos, sequenciar transações e drenar liquidez simulada de maneiras que refletem de perto ataques reais às cadeias de blocos Ethereum e BNB.
O artigo também testou se os modelos atuais poderiam encontrar vulnerabilidades que ainda não haviam sido exploradas.
GPT-5 e Sonnet 4.5 digitalizaram 2.849 contratos da Cadeia BNB implantados recentemente que não mostraram sinais de comprometimento anterior. Ambos os modelos descobriram duas falhas de dia zero no valor de US$ 3.694 em lucro simulado. Um resultou da falta de um modificador de visão em uma função pública que permitiu ao agente aumentar seu saldo de token.
Outro permitiu que um chamador redirecionasse as retiradas de taxas, fornecendo um endereço arbitrário do beneficiário. Em ambos os casos, os agentes geraram scripts executáveis que converteram a falha em lucro.
Embora os valores em dólares fossem pequenos, a descoberta é importante porque mostra que a exploração autónoma lucrativa é tecnicamente viável.
O custo para operar o agente em todo o conjunto de contratos foi de apenas US$ 3.476, e o custo médio por execução foi de US$ 1,22. À medida que os modelos se tornam mais baratos e mais capazes, a economia inclina-se ainda mais para a automação.
Os investigadores argumentam que esta tendência reduzirá o intervalo entre a implementação do contrato e o ataque, especialmente em ambientes DeFi onde o capital é publicamente visível e os bugs exploráveis podem ser rentabilizados instantaneamente.
Embora as descobertas se concentrem no DeFi, os autores alertam que as capacidades subjacentes não são específicas do domínio.
As mesmas etapas de raciocínio que permitem a um agente inflar um saldo de token ou redirecionar taxas podem ser aplicadas a software convencional, bases de código de código fechado e infraestrutura que oferece suporte a mercados criptográficos.
À medida que os custos dos modelos diminuem e o uso de ferramentas melhora, a digitalização automatizada provavelmente se expandirá além dos contratos públicos inteligentes para qualquer serviço ao longo do caminho para ativos valiosos.
Os autores enquadram o trabalho mais como um aviso do que como uma previsão. Os modelos de IA podem agora executar tarefas que historicamente exigiam atacantes humanos altamente qualificados, e a investigação sugere que a exploração autónoma em DeFi já não é hipotética.
A questão agora para os criadores de criptografia é com que rapidez a defesa pode alcançá-la.
Fontecoindesk




