Um relatório publicado pela Anthropic nesta segunda-feira (1º) revela que agentes de Inteligência Artificial (IA) já exploram falhas em contratos inteligentes de criptomoedas com uma alta taxa de sucesso.
Analisando 405 contratos já explorados por hackers entre 2020 e 2025, a Anthropic aponta que as IAs tiveram sucesso em 207 ataques, representando 51,1% de aproveitamento. Caso fossem ataques reais, eles conseguiram roubar US$ 550,1 milhões (R$ 2,9 bilhões).
Somado a isso, os agentes também possuem duas vulnerabilidades até então desconhecidas, ou seja, não estão somente replicando receitas prontas.
🟠Receba consultoria em Bitcoin com os maiores especialistas do mercado.
Como concluir, a empresa nota que mais da metade das explorações realizadas em 2025 puderam ser executadas autonomamente por agentes de IA, mas acredita que eles ainda são executados por pessoas bem capacitadas.
Anthropic publica estudo sobre uso de agentes de Inteligência Artificial em hacks de criptomoedas
Brian Armstrong, CEO da Coinbase, revelou em setembro que 40% dos códigos de sua empresa são gerados por Inteligência Artificial (IA)mostrando como essas ferramentas são úteis para desenvolvedores.
No entanto, um estudo publicado pela Anthropic nesta segunda-feira (1º) nota que a tecnologia também pode ser usada por hackers.
Dos 405 contratos já explorados nos últimos 5 anos, as IAs conseguiram replicar 51,1% dos ataques, roubando US$ 550,1 milhões em fundos simulados.
Entre os modelos testados estão Meta Llama 3, OpenAI GPT-4o, DeepSeek V3, Claude Sonnet 3.7, OpenAI o3, Claude Opus 4, Claude Opus 4.1, OpenAI GPT-5, Claude Sonnet 4.5, e Claude Opus 4.5.
“Apresentamos o SCONE-bench — o primeiro benchmark que avalia a capacidade de agentes explorarem contratos inteligentes, calculado pelo valor total em dólares de fundos simulados adquiridos.”
“Para cada contrato alvo, o agente é instruído a identificar uma vulnerabilidade e produzir um roteiro de exploração que a aproveite, de modo que, quando executado, o saldo do token nativo do executor aumente acima de um limite mínimo”explicou a empresa. “Em vez de depender de programas de bug bounty ou modelos especulativos, o SCONE-bench usa ativos on-chain para quantificar diretamente as perdas.”
“Para controlar possível contaminação de dados, avaliamos os mesmos 10 modelos em 34 problemas que foram explorados após 1º de março de 2025 (último corte de conhecimento desses modelos).”
“No total, Opus 4.5, Sonnet 4.5 e GPT-5 produziram explorações para 19 desses problemas (55,8%), gerando um máximo de 4,6 milhões de dólares em fundos simulados adquiridos”revela o estudo. “O modelo com melhor desempenho, o Opus 4.5, explorou com sucesso 17 desses problemas (50%), correspondendo a 4,5 milhões de dólares em fundos simulados roubados — uma estimativa de quanto esses agentes de IA poderiam ter adquirido se fossem direcionados a esses contratos ao longo de 2025.”
Somado a isso, os agentes de IA também analisaram 2.849 contratos recém-implementados, sem vulnerabilidades conhecidas, e Você consegue encontrar duas novas vulnerabilidades.
Agentes de IA podem ter as mesmas taxas de sucesso, mas roubar valores diferentes, explica estudo
Explicando seu método de avaliação, a Anthropic nota que dois agentes de IA podem encontrar o mesmo bug, mas acabarão com quantidades muito diferentes em suas carteiras. Portanto, o estudo deu destaque para agentes que maximizaram seus ganhos.
“Dois agentes podem “resolver” o mesmo problema, mas extrair quantidades muito diferentes. Por exemplo, no problema “FPC”, o GPT-5 explorou 1,12 milhão de dólares em fundos simulados, enquanto o Opus 4.5 explorou 3,5 milhões.”
Os pesquisadores também apontam que os ganhos estão correlacionados com a quantidade de ativos mantidos em um contrato inteligente e não pela complexidade do ataque. Portanto, grandes projetos tendem a ser mais testados.
O texto cita exemplos de prompt e de vulnerabilidades. Em um dos casos, a Anthropic afirma que encontrou uma falha, não conseguiu entrar em contato com o desenvolvedor, e ela foi explorada logo em seguida.
“Quatro dias após a descoberta do nosso agente, um invasor real explorou independentemente a mesma falha e drenou aproximadamente 1.000 dólares em taxas”lamentou a empresa.
Os custos também são baratos. No total, a empresa gastou US$ 3.476 dólares para rodar o GPT-5 uma vez contra 2.849 contratos inteligentes, resultando em um lucro líquido médio de US$ 109.
“Em apenas um ano, as explorações por agentes de IA passaram de 2% na parte pós-março de 2025 do nosso benchmark para 55,88% — um salto de US$ 5.000 para US$ 4,6 milhões em receita total.”
“Mais da metade das explorações em blockchain realizadas em 2025 — presumivelmente por ataques humanos — poderiam ter sido realizadas autonomamente pelos agentes de IA atuais”escreveu a Antrópico. “A descoberta adicional de duas vulnerabilidades inéditas (zero-day) pelo nosso agente de prova de conceito mostra que esses resultados não são apenas retrospectivos — explorações autônomas lucrativas podem acontecer hoje.”
Finalizando, a Anthropic aponta que os testes foram realizados em “simuladores de blockchain”, sem causar impacto em ativos reais. Além disso, também observe que essas ferramentas podem ser usadas por empresas de segurança.
“Agora é o momento de adotar IA para defesa”escreveu a empresa, citando que está contratando profissionais.
Fonteslivecoins




