AI Agents da Anthropic identificam vulnerabilidade de 4,6 milhões de dólares em contrato inteligente durante teste simulado
De acordo com o ChainCatcher, uma pesquisa recente da Anthropic mostra que agentes de IA possuem uma capacidade considerável de realizar ataques on-chain: em testes simulando contratos inteligentes realmente hackeados entre 2020 e 2025, Claude Opus 4.5, Sonnet 4.5 e GPT-5 conseguiram reproduzir explorações de vulnerabilidades no valor total de aproximadamente 4,6 milhões de dólares; ao analisar 2.849 contratos sem vulnerabilidades conhecidas, dois desses modelos ainda descobriram duas novas vulnerabilidades zero-day e simularam lucros com sucesso.
A pesquisa aponta que os lucros de ataques on-chain realizados por IA dobraram aproximadamente a cada 1,3 meses no último ano, demonstrando que, tecnicamente, já possuem plena capacidade autônoma e lucrativa de explorar vulnerabilidades.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste

XMAQUINA inicia votação relacionada ao TGE, propondo uma venda comunitária de até 110 milhões de tokens DEUS
Dados: Dólar americano perde o nível de 155 ienes, queda diária de 0,14%
