OpenLedger construye un ecosistema Web3 AI impulsado por datos y modelos combinables

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, comparables a combustible (datos), motor (modelo) y energía (potencia de cálculo), siendo todos ellos indispensables. Al igual que la trayectoria de evolución de la infraestructura en la industria de la IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados, enfatizando en general la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria comenzó a trasladarse gradualmente hacia las capas de modelos y datos, marcando la transición de Crypto AI de una competencia por recursos de base a una construcción de nivel medio con mayor sostenibilidad y valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que utiliza un modelo base reutilizable, generalmente basado en modelos de código abierto, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y la barrera técnica.

Es importante señalar que SLM no se integrará en el peso de LLM, sino que colaborará con LLM a través de la arquitectura de Agent, enrutamiento dinámico del sistema de plugins, la conexión en caliente de módulos LoRA y RAG (Generación Aumentada por Recuperación). Esta arquitectura no solo mantiene la capacidad de amplio alcance de LLM, sino que también mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.

Valor y límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente la capacidad central de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que

  • La barrera técnica es demasiado alta: la escala de datos, los recursos de cálculo y la capacidad de ingeniería necesarios para entrenar un Modelo Fundamental son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de Estados Unidos y China tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: Aunque los modelos fundamentales más utilizados han sido de código abierto, la clave para impulsar verdaderamente los avances en los modelos sigue concentrándose en instituciones de investigación y sistemas de ingeniería cerrados, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.

Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr una extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la IA, se refleja en dos direcciones centrales:

  • Capa de verificación confiable: A través del registro en la cadena de la trayectoria de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de la salida de la IA.
  • Mecanismo de incentivos: A través del Token nativo, utilizado para incentivar acciones como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio del modelo.

Análisis de la aplicabilidad de la clasificación de tipos de modelos de IA y blockchain

De esto se puede ver que los puntos de viabilidad de los proyectos de tipo Crypto AI se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, y el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la "capa de interfaz" de AI.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Resumen del Proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos para datos y modelos. Fue pionero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena según sus contribuciones reales.

OpenLedger proporciona un ciclo cerrado completo desde "provisión de datos" hasta "despliegue de modelos" y "llamada de participación en beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, puedes utilizar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: admite la coexistencia de mil modelos, carga dinámica bajo demanda, lo que reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través de registros de llamadas en la cadena;
  • Datanets: red de datos estructurados orientada a escenarios verticales, construida y verificada mediante la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamado y pagado.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelada de manera combinable, promoviendo la on-chainización de la cadena de valor de la IA.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila de tecnología Optimism, soporta alta profundidad y ejecución con bajos costos;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: facilita a los desarrolladores desplegar y expandir rápidamente basándose en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA genéricas como NEAR, que son más de nivel base y se centran en la soberanía de los datos y la arquitectura "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas a incentivos de datos y modelos, comprometido a hacer que el desarrollo y la llamada de modelos logren un ciclo de valor rastreable, combinable y sostenible en la cadena. Es la infraestructura básica de incentivos de modelos en el mundo Web3, combinando alojamiento de modelos, facturación por uso e interfaces combinables en la cadena, impulsando la realización del camino de "modelo como activo".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sin código

ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) dentro del ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo en función de los conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM populares (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA incorporado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: herramientas de evaluación integradas, soporte para exportar el despliegue o compartir llamadas en el ecosistema.
  • Interfaz de verificación interactiva: proporciona una interfaz de chat, lo que facilita la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG para trazabilidad: Responder con citas de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis grandes módulos, abarcando autenticación de identidad, permisos de datos, ajuste fino del modelo, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicio de modelos integrada que es segura y controlable, interactiva en tiempo real y sostenible en su monetización.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que actualmente soporta ModelFactory:

  • Serie LLaMA: el ecosistema más amplio, comunidad activa y rendimiento general fuerte, es uno de los modelos básicos de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excepcional, adecuada para escenarios con despliegue flexible y recursos limitados.
  • Qwen: Producto de Alibaba, destaca en tareas en chino, con una gran capacidad integral, ideal como primera opción para desarrolladores nacionales.
  • ChatGLM: El efecto de conversación en chino es destacado, adecuado para atención al cliente de nicho y escenarios de localización.
  • Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas de comparación, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura lingüística.
  • GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en implementación práctica.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones de implementación en cadena (costos de inferencia, adaptación de RAG, compatibilidad de LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".

Model Factory como una herramienta de código sin código, todos los modelos tienen un mecanismo de prueba de contribución incorporado, que garantiza los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los aplicadores: se pueden combinar modelos o Agentes como si se estuviera llamando a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena de modelos de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas", sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el uso compartido de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA actuales, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, impulsando la ejecución de "IA Pagable" (Payable AI).

OpenLoRA arquitectura del sistema componentes centrales, basado en diseño modular, cubre almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:

  • Módulo de almacenamiento de LoRA Adapter ( Almacenamiento de adaptadores LoRA ): el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la pre-carga de todos los modelos en la memoria de video, ahorrando recursos.
  • Capa de Alojamiento de Modelos y Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos ajustados utilizan un modelo base (base model) compartido, durante la inferencia se fusionan dinámicamente los adaptadores LoRA, soportando múltiples adaptadores.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 7
  • Compartir
Comentar
0/400
ZKSherlockvip
· 07-07 02:33
en realidad... su composabilidad de modelo carece de una adecuada atestación criptográfica. ¿cómo podemos confiar en la seguridad teórica de la información sin capas de validación ZK? *sigh*
Ver originalesResponder0
MidsommarWalletvip
· 07-05 20:51
¡Guau, es demasiado profundo! Me voy, me voy.
Ver originalesResponder0
ContractCollectorvip
· 07-04 19:16
He desperdiciado GPU jugando durante un año.
Ver originalesResponder0
DegenMcsleeplessvip
· 07-04 19:15
introducir una posición y correr, AI, ¿cuántas vueltas tiene eso?
Ver originalesResponder0
RugResistantvip
· 07-04 19:15
Otra vez es una estrategia de marketing, debería haberse llamado moneda estafadora.
Ver originalesResponder0
GhostWalletSleuthvip
· 07-04 19:05
condenado la potencia computacional
Ver originalesResponder0
MetaverseVagabondvip
· 07-04 18:57
¿Golpear o no golpear? Este agente inteligente se vuelve más fuerte.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)