Los agentes de IA representan una amenaza inmediata para la seguridad de los contratos inteligentes, dice Anthropic
Resumen
La empresa de investigación de IA Anthropic informó que agentes avanzados de IA, incluidos Claude Opus 4.5 y Claude Sonnet 4.5, explotaron con éxito vulnerabilidades en entornos simulados de blockchain. Al probar contratos previamente explotados desplegados después de marzo de 2025, los agentes de IA explotaron 17 de 34 contratos, robando $4.5 millones en fondos simulados. En una evaluación comparativa más amplia de 405 contratos desplegados entre 2020 y 2025, los modelos de IA explotaron 207, obteniendo $550 millones en ingresos simulados. Además, al escanear 2,849 contratos recientemente desplegados sin vulnerabilidades conocidas, los modelos de IA descubrieron dos vulnerabilidades de día cero novedosas. Anthropic advirtió que los agentes de IA actuales podrían ejecutar de forma autónoma más de la mitad de las explotaciones de blockchain vistas en 2025, señalando que los ingresos por explotación de fondos robados simulados se duplicaron cada 1.3 meses recientemente. Si bien destacaron esta creciente amenaza, Anthropic enfatizó el potencial de la tecnología de IA para la defensa, planeando hacer de código abierto el conjunto de datos de referencia de explotación de contratos inteligentes (SCONE-bench) para ayudar a los desarrolladores a parchear contratos e instó a los defensores a adoptar la IA para la seguridad.
(Fuente:The Block)