todayonchain.com

Los agentes de IA de Anthropic ahora pueden destrozar la seguridad de los contratos inteligentes por solo $1.22, exponiendo una aterradora realidad económica

CryptoSlate
Los agentes de IA de Anthropic ahora pueden reconstruir de forma autónoma exploits de contratos inteligentes reales a un costo muy bajo, revelando una grave realidad económica.

Resumen

El Frontier Red Team de Anthropic demostró que modelos avanzados de IA como Claude 3.5 Opus y GPT-5 pueden reconstruir de forma autónoma 19 de 34 exploits reales de DeFi de 2025 sin conocimiento previo de las vulnerabilidades, razonando a través de complejas transacciones de múltiples pasos.

Económicamente, los agentes encontraron vulnerabilidades de día cero novedosas en contratos de BNB Chain por un costo de inferencia promedio de solo $1.22 por contrato, lo que sugiere que los ingresos por explotación podrían duplicarse cada 1.3 meses. La velocidad de descubrimiento es crítica, ya que los agentes pueden generar una prueba de concepto de exploit funcional en menos de una hora, superando con creces los ciclos de auditoría humana tradicionales.

Anthropic ha puesto a disposición el SCONE-bench para ayudar a los defensores a adoptar pruebas continuas impulsadas por IA integradas en los pipelines de CI/CD. La conclusión es que los defensores deben pasar de auditorías únicas a un compromiso adversarial continuo, integrando el fuzzing de IA e implementando mecanismos de seguridad como interruptores de pausa, ya que la ventana de explotación se está cerrando rápidamente.

(Fuente:CryptoSlate)