0G Reentrena el Modelo de 107B Públicamente Mientras la IA Descentralizada Entra en una Nueva Fase
Resumen
0G está reentrenando públicamente su modelo de 107 mil millones de parámetros, DiLoCoX-107B, que previamente logró 357 veces mejor eficiencia de comunicación que los métodos tradicionales, pero recibió poca atención a mediados de 2025.
El esfuerzo de reentrenamiento público tiene como objetivo documentar cada etapa, incluidos puntos de control y fuentes de datos, con verificación a través de Entornos de Ejecución Confiables (zerogAuth), y finalmente abrir el código fuente de los pesos del modelo para demostrar que la IA descentralizada puede ser auditada y reproducida.
0G argumenta que el valor del modelo reside en el sistema completo, destacando las técnicas de eficiencia de comunicación de DiLoCoX y su capacidad para entrenar con conexiones estándar de 1 Gbps, desafiando la suposición de que el entrenamiento de vanguardia requiere condiciones de red raras. Además, 0G afirma que su sistema reduce los costos en aproximadamente un 95% en comparación con las alternativas centralizadas, cambiando el enfoque de los recuentos de parámetros a la salida verificable y la asequibilidad.
(Fuente:BeInCrypto)