todayonchain.com

Anthropic Acusa a Tres Empresas de Usar Ataques de Destilación Sofisticados

Cointelegraph
Anthropic acusó a tres firmas chinas de IA de usar ilícitamente las salidas de su modelo Claude para entrenar sus propios modelos mediante ataques de destilación.

Resumen

La firma de inteligencia artificial Anthropic acusó públicamente a tres empresas chinas de IA —DeepSeek, Moonshot y MiniMax— de utilizar ilícitamente las salidas de su modelo de lenguaje grande Claude para entrenar sus propios modelos a través de una técnica conocida como "destilación". Anthropic identificó más de 16 millones de intercambios generados a través de aproximadamente 24,000 cuentas fraudulentas, dirigidas a las capacidades diferenciadas de Claude, como el razonamiento agentico y la codificación. Aunque la destilación es un método de entrenamiento legítimo, Anthropic argumenta que los competidores la utilizan con fines ilícitos para adquirir capacidades potentes de forma rápida y económica. La empresa afirmó haber identificado a los actores mediante correlación de direcciones IP y metadatos, señalando que estas campañas de destilación extranjeras presentan riesgos geopolíticos al poder alimentar sistemas militares o de vigilancia utilizados por gobiernos autoritarios. Anthropic planea mejorar sus sistemas de detección y ha solicitado una respuesta coordinada de la industria y los legisladores para combatir estos ataques a gran escala.

(Fuente:Cointelegraph)