Otimização do mecanismo PoC da Gonka: compressão do tempo de ativação para 5 segundos, implementação de GPU de múltiplos níveis para participação contínua
A rede descentralizada de IA de capacidade computacional Gonka anunciou recentemente ajustes importantes no seu mecanismo de consenso central. O mecanismo PoC (Proof of Compute, ou Prova de Cálculo) é a principal metodologia para verificar a contribuição real de capacidade computacional de cada nó na rede. Esta otimização focou na eficiência de ativação do PoC, na forma de execução do modelo e no cálculo do peso de capacidade, com o objetivo de fazer com que os recursos GPU sejam utilizados de forma mais eficiente em cálculos de IA reais.
PoC e inferência operando de forma unificada, mecanismo de ativação com troca quase em tempo real
Com o novo design do mecanismo, a Gonka unificou o ambiente de execução dos modelos de validação PoC e das tarefas de inferência. Anteriormente, o PoC utilizava um modo de troca com atraso, causando mudanças frequentes entre tarefas, o que levava a um grande tempo de ociosidade dos GPUs. Após a melhoria, a ativação passou de uma abordagem passiva de atraso para uma ativação proativa, comprimindo todo o ciclo de ativação para menos de 5 segundos.
Isso significa que os nós não precisam mais esperar longos períodos para trocar de tarefa, permitindo que os GPUs entrem rapidamente em modo de trabalho. O cofundador David afirmou que essa otimização não visa maximizar ganhos de curto prazo, mas sim uma evolução natural durante a fase de rápida expansão da capacidade computacional da rede, com o objetivo principal de manter a estabilidade e segurança da rede sob alta carga.
Alinhamento preciso do peso de capacidade computacional com o custo real de cálculo
A equipe Gonka revisou a correspondência entre diferentes hardwares GPU e o tamanho do modelo em relação ao consumo real de cálculo. O sistema de peso anterior não refletia adequadamente as diferenças de capacidade entre modelos — modelos menores, embora tenham menos parâmetros, não apresentavam proporcionalmente menor custo de cálculo para o mesmo número de tokens. Isso levava a uma produção de tokens relativamente maior por nó de modelos pequenos, o que, a longo prazo, poderia gerar um desequilíbrio na estrutura de capacidade.
A nova metodologia de cálculo de peso faz com que os incentivos estejam mais alinhados com o custo real de cálculo. Ao aumentar a proporção de peso para modelos grandes e hardware de alta capacidade, a rede é guiada a acumular recursos de capacidade mais densos, preparando-se para suportar cargas de trabalho de IA mais complexas e de maior escala. Essa alinhamento não só otimiza as expectativas de retorno de cada nó individual, mas também regula a direção de alocação de recursos na rede como um todo.
Diversas formas de participação com GPU de pequeno e médio porte
Para responder às preocupações da comunidade sobre como manter a competitividade de GPUs de pequeno e médio porte, a Gonka apresentou caminhos específicos de participação. Por meio de um mecanismo de colaboração em pools de mineração, GPUs de diferentes tamanhos podem atuar em conjunto, concentrando capacidade computacional para obter retornos mais estáveis. Além disso, a participação flexível por Epoch permite que os nós entrem ou saiam dinamicamente, de acordo com sua carga de trabalho.
Adicionalmente, um canal de receita independente para tarefas de inferência oferece uma alternativa para GPUs de menor capacidade. Em comparação com a validação PoC, as tarefas de inferência têm requisitos de hardware mais flexíveis, permitindo que os nós escolham livremente entre os dois canais, participando tanto do consenso da rede quanto contribuindo com trabalho de IA real. Gonka enfatiza que, no futuro, a diferença de escala de hardware não excluirá qualquer participante, mas sim que o incentivo será diferenciado para que cada nível de GPU encontre seu espaço.
Unificação do modelo de execução, ativação quase em tempo real e alinhamento preciso de pesos — essas três melhorias visam um objetivo central: tornar a capacidade e os ganhos mais transparentes e justos, permitindo que a rede Gonka mantenha segurança e eficiência à medida que escala.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Otimização do mecanismo PoC da Gonka: compressão do tempo de ativação para 5 segundos, implementação de GPU de múltiplos níveis para participação contínua
A rede descentralizada de IA de capacidade computacional Gonka anunciou recentemente ajustes importantes no seu mecanismo de consenso central. O mecanismo PoC (Proof of Compute, ou Prova de Cálculo) é a principal metodologia para verificar a contribuição real de capacidade computacional de cada nó na rede. Esta otimização focou na eficiência de ativação do PoC, na forma de execução do modelo e no cálculo do peso de capacidade, com o objetivo de fazer com que os recursos GPU sejam utilizados de forma mais eficiente em cálculos de IA reais.
PoC e inferência operando de forma unificada, mecanismo de ativação com troca quase em tempo real
Com o novo design do mecanismo, a Gonka unificou o ambiente de execução dos modelos de validação PoC e das tarefas de inferência. Anteriormente, o PoC utilizava um modo de troca com atraso, causando mudanças frequentes entre tarefas, o que levava a um grande tempo de ociosidade dos GPUs. Após a melhoria, a ativação passou de uma abordagem passiva de atraso para uma ativação proativa, comprimindo todo o ciclo de ativação para menos de 5 segundos.
Isso significa que os nós não precisam mais esperar longos períodos para trocar de tarefa, permitindo que os GPUs entrem rapidamente em modo de trabalho. O cofundador David afirmou que essa otimização não visa maximizar ganhos de curto prazo, mas sim uma evolução natural durante a fase de rápida expansão da capacidade computacional da rede, com o objetivo principal de manter a estabilidade e segurança da rede sob alta carga.
Alinhamento preciso do peso de capacidade computacional com o custo real de cálculo
A equipe Gonka revisou a correspondência entre diferentes hardwares GPU e o tamanho do modelo em relação ao consumo real de cálculo. O sistema de peso anterior não refletia adequadamente as diferenças de capacidade entre modelos — modelos menores, embora tenham menos parâmetros, não apresentavam proporcionalmente menor custo de cálculo para o mesmo número de tokens. Isso levava a uma produção de tokens relativamente maior por nó de modelos pequenos, o que, a longo prazo, poderia gerar um desequilíbrio na estrutura de capacidade.
A nova metodologia de cálculo de peso faz com que os incentivos estejam mais alinhados com o custo real de cálculo. Ao aumentar a proporção de peso para modelos grandes e hardware de alta capacidade, a rede é guiada a acumular recursos de capacidade mais densos, preparando-se para suportar cargas de trabalho de IA mais complexas e de maior escala. Essa alinhamento não só otimiza as expectativas de retorno de cada nó individual, mas também regula a direção de alocação de recursos na rede como um todo.
Diversas formas de participação com GPU de pequeno e médio porte
Para responder às preocupações da comunidade sobre como manter a competitividade de GPUs de pequeno e médio porte, a Gonka apresentou caminhos específicos de participação. Por meio de um mecanismo de colaboração em pools de mineração, GPUs de diferentes tamanhos podem atuar em conjunto, concentrando capacidade computacional para obter retornos mais estáveis. Além disso, a participação flexível por Epoch permite que os nós entrem ou saiam dinamicamente, de acordo com sua carga de trabalho.
Adicionalmente, um canal de receita independente para tarefas de inferência oferece uma alternativa para GPUs de menor capacidade. Em comparação com a validação PoC, as tarefas de inferência têm requisitos de hardware mais flexíveis, permitindo que os nós escolham livremente entre os dois canais, participando tanto do consenso da rede quanto contribuindo com trabalho de IA real. Gonka enfatiza que, no futuro, a diferença de escala de hardware não excluirá qualquer participante, mas sim que o incentivo será diferenciado para que cada nível de GPU encontre seu espaço.
Unificação do modelo de execução, ativação quase em tempo real e alinhamento preciso de pesos — essas três melhorias visam um objetivo central: tornar a capacidade e os ganhos mais transparentes e justos, permitindo que a rede Gonka mantenha segurança e eficiência à medida que escala.