I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três principais elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi temporariamente dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar progressivamente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de nível médio com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte tradicionais (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com tamanhos de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Specialized Language Model), como um paradigma de ajuste fino leve baseado em um modelo de base reutilizável, geralmente é construído com modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas que possuem conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA, RAG (Geração Aumentada por Recuperação) e outras formas. Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinado altamente flexível.
Crypto AI no valor e limites da camada do modelo
Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), sendo a razão principal
Barreiras técnicas excessivas: A escala de dados, os recursos computacionais e as capacidades de engenharia necessários para treinar um Modelo Fundamental são extremamente grandes, e atualmente apenas grandes empresas de tecnologia como os EUA e a China possuem essa capacidade.
Limitações do ecossistema de código aberto: embora os modelos básicos principais tenham sido tornados abertos, a verdadeira chave para impulsionar a quebra de modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para projetos em blockchain a nível do modelo central.
No entanto, em cima de modelos base de código aberto, o projeto Crypto AI ainda pode estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Camada de validação confiável: através do registo em cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a resistência à alteração da saída da IA.
Mecanismo de incentivo: Através do Token nativo, usado para incentivar o upload de dados, chamadas de modelo, execução de agentes (Agent), etc., construindo um ciclo positivo de treinamento e serviço de modelos.
Análise da classificação dos tipos de modelos de IA e da aplicabilidade na blockchain
Assim, é evidente que os pontos de viabilidade dos projetos de inteligência artificial Crypto do tipo modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, e na implementação local e incentivos de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferencial na "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, convertendo o comportamento da IA em valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aprimorando a arquitetura de governança descentralizada.
II. Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e criadores de aplicações de IA a colaborar na mesma plataforma e a obter rendimentos em cadeia com base na contribuição real.
A OpenLedger oferece um ciclo completo desde "fornecimento de dados" até "desdobramento de modelos" e "chamadas de distribuição de lucros", cujos módulos principais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino, treinar e implantar modelos personalizados com base em LLM de código aberto;
OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implantação;
PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas na cadeia;
Datanets: Rede de dados estruturados voltada para cenários verticais, construída e verificada por colaboração comunitária;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, chamável e pagável.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes inteligente" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído com OP Stack: Baseado na pilha tecnológica da Optimism, suporta alta capacidade de processamento e execução de baixos custos;
Liquidação na rede principal do Ethereum: Garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita o desenvolvimento para que os desenvolvedores possam implantar e expandir rapidamente com base em Solidity;
EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Em comparação com cadeias de IA genéricas como NEAR, que são mais orientadas para a camada base e focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger concentra-se na construção de cadeias de IA especializadas voltadas para a incentiva de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis na cadeia. É a infraestrutura básica de incentivo a modelos no mundo Web3, combinando hospedagem de modelos, faturamento de uso e interfaces combináveis na cadeia, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, sem necessidade de código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface de operação puramente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados autorizados e auditados concluídos na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento e implantação de modelos, cujo processo central inclui:
Controle de Acesso a Dados: O usuário submete um pedido de dados, o provedor avalia e aprova, e os dados são automaticamente integrados à interface de treinamento do modelo.
Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configuração de hiperparâmetros através da GUI.
Ajuste leve: motor LoRA / QLoRA embutido, exibição em tempo real do progresso do treinamento.
Avaliação e Implementação de Modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou compartilhamento ecológico de chamadas.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG: Respostas com citações de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação, implementação e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, interativa em tempo real e com monetização sustentável.
A tabela resumida das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é a seguinte:
Série LLaMA: a ecologia mais ampla, comunidade ativa e desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexível e recursos limitados.
Qwen: Produzido pela Alibaba, com desempenho excelente em tarefas em chinês, forte capacidade geral, ideal para desenvolvedores nacionais como primeira escolha.
ChatGLM: O efeito de conversa em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta um desempenho superior na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com uma estrutura clara, fácil de entender e experimentar rapidamente.
Falcon: Foi uma referência de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais da implementação em cadeia (custos de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração de "prioridade prática".
Model Factory, como uma cadeia de ferramentas sem código, incorpora em todos os modelos um mecanismo de prova de contribuição, assegurando os direitos dos contribuidores de dados e desenvolvedores de modelos. Possui vantagens de baixo limiar, monetização e combinabilidade em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: oferece um caminho completo para incubação, distribuição e receita de modelos;
Para a plataforma: formar a circulação de ativos modelo e ecossistema combinado;
Para os utilizadores: podem combinar modelos ou Agentes da mesma forma que chamam a API.
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo ajustado
LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas ou consultas médicas), é necessário realizar um ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é uma estrutura de inferência leve projetada pela OpenLedger, especialmente para implantação de múltiplos modelos e compartilhamento de recursos. O seu objetivo principal é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução prática da "IA Pagável" (Payable AI).
OpenLoRA sistema de arquitetura componentes centrais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando a capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:
Módulo de Armazenamento do Adaptador LoRA (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
Profundidade do Modelo e Camada de Fusão Dinâmica (Model Hosting & Adapter Merging Layer): Todos os modelos ajustados compartilham o modelo base (base model), durante a inferência, o adaptador LoRA é mesclado dinamicamente, suportando vários adaptadores.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
21 gostos
Recompensa
21
7
Partilhar
Comentar
0/400
ZKSherlock
· 07-07 02:33
na verdade... a composabilidade do modelo deles carece de uma atestação criptográfica adequada. como podemos confiar na segurança teórica da informação sem camadas de validação ZK? *sigh*
Ver originalResponder0
MidsommarWallet
· 07-05 20:51
Uau, isso é muito profundo. Vou dar uma escapada.
Ver originalResponder0
ContractCollector
· 07-04 19:16
Desperdicei GPU a jogar durante um ano
Ver originalResponder0
DegenMcsleepless
· 07-04 19:15
entrar numa posição e correr AI não tem tantas voltas assim
Ver originalResponder0
RugResistant
· 07-04 19:15
Mais uma jogada de marketing, já devia ter mudado o nome para moeda dos golpistas.
Ver originalResponder0
GhostWalletSleuth
· 07-04 19:05
拼Poder de computação早该condenado了
Ver originalResponder0
MetaverseVagabond
· 07-04 18:57
Bate ou não? Este agente inteligente vai ficar ainda mais forte.
OpenLedger constrói um ecossistema Web3 de IA impulsionado por dados e modelos combináveis
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três principais elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), sendo todos indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi temporariamente dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar progressivamente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de nível médio com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem de grande porte tradicionais (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com tamanhos de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Specialized Language Model), como um paradigma de ajuste fino leve baseado em um modelo de base reutilizável, geralmente é construído com modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas que possuem conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e a barreira técnica.
É importante notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA, RAG (Geração Aumentada por Recuperação) e outras formas. Esta arquitetura preserva a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinado altamente flexível.
Crypto AI no valor e limites da camada do modelo
Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), sendo a razão principal
No entanto, em cima de modelos base de código aberto, o projeto Crypto AI ainda pode estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Análise da classificação dos tipos de modelos de IA e da aplicabilidade na blockchain
Assim, é evidente que os pontos de viabilidade dos projetos de inteligência artificial Crypto do tipo modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados on-chain da arquitetura RAG, e na implementação local e incentivos de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferencial na "camada de interface" da IA.
A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, convertendo o comportamento da IA em valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aprimorando a arquitetura de governança descentralizada.
II. Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e criadores de aplicações de IA a colaborar na mesma plataforma e a obter rendimentos em cadeia com base na contribuição real.
A OpenLedger oferece um ciclo completo desde "fornecimento de dados" até "desdobramento de modelos" e "chamadas de distribuição de lucros", cujos módulos principais incluem:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes inteligente" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Em comparação com cadeias de IA genéricas como NEAR, que são mais orientadas para a camada base e focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger concentra-se na construção de cadeias de IA especializadas voltadas para a incentiva de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis na cadeia. É a infraestrutura básica de incentivo a modelos no mundo Web3, combinando hospedagem de modelos, faturamento de uso e interfaces combináveis na cadeia, impulsionando o caminho para a realização de "modelos como ativos".
Três, os componentes principais e a arquitetura técnica do OpenLedger
3.1 Fábrica de Modelos, sem necessidade de código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface de operação puramente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados autorizados e auditados concluídos na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento e implantação de modelos, cujo processo central inclui:
A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação, implementação e rastreamento RAG, criando uma plataforma de serviços de modelos integrada, segura, controlável, interativa em tempo real e com monetização sustentável.
A tabela resumida das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é a seguinte:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais da implementação em cadeia (custos de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM), resultando em uma configuração de "prioridade prática".
Model Factory, como uma cadeia de ferramentas sem código, incorpora em todos os modelos um mecanismo de prova de contribuição, assegurando os direitos dos contribuidores de dados e desenvolvedores de modelos. Possui vantagens de baixo limiar, monetização e combinabilidade em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a tokenização de ativos on-chain do modelo ajustado
LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas jurídicas ou consultas médicas), é necessário realizar um ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3 atualmente.
OpenLoRA é uma estrutura de inferência leve projetada pela OpenLedger, especialmente para implantação de múltiplos modelos e compartilhamento de recursos. O seu objetivo principal é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução prática da "IA Pagável" (Payable AI).
OpenLoRA sistema de arquitetura componentes centrais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de solicitações e outros aspectos críticos, realizando a capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo: