todayonchain.com

Estudio de Anthropic dice que agentes de IA desarrollaron $4.6M en errores de contratos inteligentes

Cointelegraph
La investigación de Anthropic y MATS encontró que los modelos de IA desarrollaron exploits de contratos inteligentes por valor de $4.6 millones.

Resumen

Una investigación del equipo rojo de Anthropic y Machine Learning Alignment & Theory Scholars (MATS) reveló que los modelos de IA comerciales actuales, incluidos Claude Opus 4.5 de Anthropic, Claude Sonnet 4.5 y GPT-5 de OpenAI, son significativamente capaces de explotar contratos inteligentes. Cuando se probaron, estos modelos desarrollaron colectivamente exploits por valor de $4.6 millones basándose en sus datos de entrenamiento. Además, al probarlos en 2,849 contratos desplegados recientemente, descubrieron dos vulnerabilidades de día cero novedosas, produciendo exploits por valor de $3,694, lo que demuestra que la explotación autónoma y rentable es técnicamente factible.

Los investigadores también desarrollaron el punto de referencia de Explotación de Contratos Inteligentes (SCONE), donde 10 modelos produjeron colectivamente exploits para 207 contratos, lo que resultó en una pérdida simulada de $550.1 millones. El estudio subraya que las capacidades de hacking de la IA están mejorando rápidamente; en solo un año, el porcentaje de vulnerabilidades explotadas saltó del 2% al 55.88%, lo que se traduce en un gran aumento en los ingresos potenciales por explotación. La investigación sugiere que el costo (en tokens) y el tiempo necesarios para que un agente de IA produzca un exploit están disminuyendo, reduciendo la ventana de tiempo para que los desarrolladores detecten y parchen vulnerabilidades antes de que sean explotadas.

(Fuente:Cointelegraph)