todayonchain.com

Investigación de Anthropic Muestra que Agentes de IA se Acercan a la Capacidad de Ataque Real en DeFi

CoinDesk
La investigación de Anthropic demuestra que los modelos de IA de vanguardia pueden generar scripts de explotación capaces de ataques DeFi reales.

Resumen

Una nueva investigación del programa Anthropic Fellows y el programa ML Alignment & Theory Scholars (MATS) indica que los agentes de IA avanzados están cerca de la capacidad de explotar autónomamente vulnerabilidades en contratos inteligentes de finanzas descentralizadas (DeFi). Al probar modelos de frontera como GPT-5 y Claude Opus 4.5 contra un conjunto de datos de contratos ya explotados (SCONE-bench), se produjeron 4,6 millones de dólares en explotaciones simuladas en contratos hackeados después de las fechas de corte de conocimiento de los modelos. Crucialmente, los modelos no solo identificaron errores, sino que sintetizaron scripts de explotación completos y ejecutables que reflejaban ataques reales en las blockchains Ethereum y BNB Chain. Además, al escanear contratos de BNB Chain recientemente desplegados y sin compromisos previos, GPT-5 y Sonnet 4.5 descubrieron dos fallas de día cero, generando scripts ejecutables para convertir la falla en ganancias. Los autores advierten que, aunque las cantidades simuladas fueron pequeñas, esto demuestra que la explotación autónoma rentable es técnicamente factible, y a medida que los costos de los modelos disminuyen, la economía se inclinará aún más hacia la automatización, representando una seria advertencia para el ecosistema DeFi.

(Fuente:CoinDesk)