Optimización del mecanismo PoC de Gonka: el tiempo de activación se comprime a 5 segundos, logrando una participación continua mediante múltiples niveles de GPU
Gonka red de de poder de cálculo AI descentralizada ha anunciado recientemente ajustes importantes en su mecanismo de consenso central. Entre ellos, el mecanismo PoC (Proof of Compute, es decir, prueba de cálculo) es el método principal para verificar la contribución real de poder de cálculo de cada nodo en la red. Esta optimización ha realizado una actualización sistemática en la eficiencia de activación de PoC, en la forma de funcionamiento del modelo y en el cálculo del peso de poder de cálculo, con el objetivo de que los recursos GPU se utilicen de manera más eficiente en cálculos AI reales.
PoC y ejecución unificada de inferencia, mecanismo de activación con cambio casi en tiempo real
Bajo el nuevo diseño del mecanismo, Gonka ha unificado el entorno de ejecución del modelo para la verificación PoC y las tareas de inferencia. En el pasado, PoC utilizaba un modo de cambio con retardo, lo que provocaba que los nodos cambiaran frecuentemente entre tareas diferentes, generando mucho tiempo de inactividad en las GPU. Tras la mejora, la forma de activación ha pasado de un ajuste pasivo con retardo a un disparo activo, comprimiendo todo el ciclo de activación a menos de 5 segundos.
Esto significa que los nodos ya no necesitan esperar largos periodos para cambiar, y las GPU pueden ponerse en modo de trabajo más rápidamente. David, cofundador, afirmó que esta optimización no busca maximizar beneficios a corto plazo, sino que es una evolución necesaria en la fase de rápida expansión del tamaño de la red en poder de cálculo, con el objetivo principal de mantener la estabilidad y seguridad de la red bajo cargas altas.
Alineación precisa del peso de poder de cálculo con el costo real de cálculo
El equipo de Gonka ha revisado nuevamente el consumo real de cálculo asociado a diferentes hardware GPU y tamaños de modelos. El sistema de peso anterior no reflejaba adecuadamente las diferencias de poder de cálculo entre modelos — aunque los modelos pequeños tengan menos parámetros, su costo de cálculo en tokens iguales no es proporcional. Esto provocaba que los nodos con modelos pequeños produjeran más tokens en comparación, lo que a largo plazo podía generar un desequilibrio en la estructura de poder de cálculo.
El nuevo esquema de cálculo de peso hace que la recompensa esté más alineada con el costo real de cálculo. Al aumentar la proporción de peso para modelos grandes y hardware de alto poder de cálculo, se guía a la red a acumular recursos de poder de cálculo más densos, preparándose para soportar cargas de trabajo AI más complejas y de mayor escala. Esta alineación no solo optimiza las expectativas de beneficios de cada nodo individual, sino que también regula la dirección de la asignación de recursos en toda la red.
Participación diversificada con GPU de tamaño medio y pequeño
Para responder a las preocupaciones de la comunidad sobre cómo mantener la competitividad de las GPU de tamaño medio y pequeño, Gonka ha presentado rutas específicas de participación. A través de mecanismos de colaboración en pools de minería, las GPU de tamaño pequeño y medio pueden participar en conjunto, concentrando poder de cálculo para obtener ingresos más estables. Además, un mecanismo de participación flexible por Epoch permite a los nodos unirse o salir dinámicamente según su carga.
Asimismo, la vía de ingresos independiente para tareas de inferencia ofrece una opción complementaria para los recursos de menor tamaño. En comparación con la verificación PoC, las tareas de inferencia tienen requisitos de hardware más flexibles para cada cálculo, permitiendo a los nodos elegir libremente entre los dos canales, participando en el consenso de la red y contribuyendo con trabajo AI real. Gonka enfatiza que en el futuro no se excluirá a ningún participante por diferencias en tamaño de hardware, sino que se diseñarán incentivos diferenciados para que cada nivel de GPU pueda encontrar su lugar.
Modelo unificado, activación casi en tiempo real, alineación precisa de pesos — estas tres optimizaciones apuntan a un objetivo central: hacer que el poder de cálculo y las recompensas sean más transparentes y justos, permitiendo que la red Gonka mantenga seguridad y eficiencia en su expansión a gran escala.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Optimización del mecanismo PoC de Gonka: el tiempo de activación se comprime a 5 segundos, logrando una participación continua mediante múltiples niveles de GPU
Gonka red de de poder de cálculo AI descentralizada ha anunciado recientemente ajustes importantes en su mecanismo de consenso central. Entre ellos, el mecanismo PoC (Proof of Compute, es decir, prueba de cálculo) es el método principal para verificar la contribución real de poder de cálculo de cada nodo en la red. Esta optimización ha realizado una actualización sistemática en la eficiencia de activación de PoC, en la forma de funcionamiento del modelo y en el cálculo del peso de poder de cálculo, con el objetivo de que los recursos GPU se utilicen de manera más eficiente en cálculos AI reales.
PoC y ejecución unificada de inferencia, mecanismo de activación con cambio casi en tiempo real
Bajo el nuevo diseño del mecanismo, Gonka ha unificado el entorno de ejecución del modelo para la verificación PoC y las tareas de inferencia. En el pasado, PoC utilizaba un modo de cambio con retardo, lo que provocaba que los nodos cambiaran frecuentemente entre tareas diferentes, generando mucho tiempo de inactividad en las GPU. Tras la mejora, la forma de activación ha pasado de un ajuste pasivo con retardo a un disparo activo, comprimiendo todo el ciclo de activación a menos de 5 segundos.
Esto significa que los nodos ya no necesitan esperar largos periodos para cambiar, y las GPU pueden ponerse en modo de trabajo más rápidamente. David, cofundador, afirmó que esta optimización no busca maximizar beneficios a corto plazo, sino que es una evolución necesaria en la fase de rápida expansión del tamaño de la red en poder de cálculo, con el objetivo principal de mantener la estabilidad y seguridad de la red bajo cargas altas.
Alineación precisa del peso de poder de cálculo con el costo real de cálculo
El equipo de Gonka ha revisado nuevamente el consumo real de cálculo asociado a diferentes hardware GPU y tamaños de modelos. El sistema de peso anterior no reflejaba adecuadamente las diferencias de poder de cálculo entre modelos — aunque los modelos pequeños tengan menos parámetros, su costo de cálculo en tokens iguales no es proporcional. Esto provocaba que los nodos con modelos pequeños produjeran más tokens en comparación, lo que a largo plazo podía generar un desequilibrio en la estructura de poder de cálculo.
El nuevo esquema de cálculo de peso hace que la recompensa esté más alineada con el costo real de cálculo. Al aumentar la proporción de peso para modelos grandes y hardware de alto poder de cálculo, se guía a la red a acumular recursos de poder de cálculo más densos, preparándose para soportar cargas de trabajo AI más complejas y de mayor escala. Esta alineación no solo optimiza las expectativas de beneficios de cada nodo individual, sino que también regula la dirección de la asignación de recursos en toda la red.
Participación diversificada con GPU de tamaño medio y pequeño
Para responder a las preocupaciones de la comunidad sobre cómo mantener la competitividad de las GPU de tamaño medio y pequeño, Gonka ha presentado rutas específicas de participación. A través de mecanismos de colaboración en pools de minería, las GPU de tamaño pequeño y medio pueden participar en conjunto, concentrando poder de cálculo para obtener ingresos más estables. Además, un mecanismo de participación flexible por Epoch permite a los nodos unirse o salir dinámicamente según su carga.
Asimismo, la vía de ingresos independiente para tareas de inferencia ofrece una opción complementaria para los recursos de menor tamaño. En comparación con la verificación PoC, las tareas de inferencia tienen requisitos de hardware más flexibles para cada cálculo, permitiendo a los nodos elegir libremente entre los dos canales, participando en el consenso de la red y contribuyendo con trabajo AI real. Gonka enfatiza que en el futuro no se excluirá a ningún participante por diferencias en tamaño de hardware, sino que se diseñarán incentivos diferenciados para que cada nivel de GPU pueda encontrar su lugar.
Modelo unificado, activación casi en tiempo real, alineación precisa de pesos — estas tres optimizaciones apuntan a un objetivo central: hacer que el poder de cálculo y las recompensas sean más transparentes y justos, permitiendo que la red Gonka mantenga seguridad y eficiencia en su expansión a gran escala.