OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et modélisable.
I. Introduction | La transition des couches de modèles de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul) qui sont tous indispensables. Tout comme le chemin d'évolution de l'infrastructure de l'industrie AI traditionnelle, le domaine du Crypto AI a également traversé des étapes similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant souvent l'accent sur une logique de croissance extensive "concurrentielle en puissance de calcul". Cependant, en 2025, l'attention de l'industrie s'est progressivement déplacée vers les niveaux de modèles et de données, marquant ainsi une transition du Crypto AI d'une compétition pour les ressources de base à une construction de niveau intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des techniques comme LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances dans des domaines spécifiques, tout en réduisant considérablement les coûts de formation et le seuil technique.
Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture d'Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et le RAG (génération augmentée par la recherche). Cette architecture préserve la large couverture du LLM tout en améliorant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technique trop élevée : l'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour former un modèle de fondation sont extrêmement importantes, et seules des géants technologiques comme les États-Unis et la Chine disposent actuellement des capacités correspondantes.
Limites de l'écosystème open source : Bien que les principaux modèles de base soient open source, la véritable clé pour faire avancer les modèles reste concentrée dans les instituts de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.
Cependant, sur la base de modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Couche de vérification fiable : enregistrement sur la chaîne des chemins de génération de modèles, des contributions de données et de leur utilisation, renforçant la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : À l'aide du Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service des modèles.
Analyse de la classification des types de modèles AI et de leur applicabilité à la blockchain
Il en ressort que les points d'ancrage viables des projets de type Crypto AI dans les modèles se concentrent principalement sur l'allégement et le réglage fin des petits SLM, l'intégration et la vérification des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de token, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources faibles à moyennes, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
Une chaîne blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable la provenance des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, la distribution des récompenses est automatiquement déclenchée lors de l'appel de données ou de modèles, transformant ainsi le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitations durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de "Payable AI", visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus on-chain en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de "fourniture de données" à "déploiement de modèles" en passant par "appel de partage des bénéfices", ses modules principaux comprennent :
Model Factory : Pas besoin de programmation, vous pouvez utiliser le LoRA pour l'ajustement fin, l'entraînement et le déploiement de modèles personnalisés basés sur LLM open source ;
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de la contribution et distribution des récompenses réalisée par des appels en chaîne.
Datanets : Réseaux de données structurées orientés vers des scénarios verticaux, construits et validés par la collaboration communautaire ;
Plateforme de proposition de modèle (Model Proposal Platform) : un marché de modèles en chaîne, modulaire, appelable et payant.
Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique d'agents intelligents" basée sur les données et combinable en modèles, favorisant la chaîne de valeur de l'IA sur la blockchain.
Dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.
Construit sur OP Stack : Basé sur la pile technologique Optimism, il supporte un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatibilité EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity.
EigenDA fournit un support de disponibilité des données : réduction significative des coûts de stockage, garantie de la vérifiabilité des données.
Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur le niveau inférieur et mettent l'accent sur la souveraineté des données et l'architecture "AI Agents on BOS", OpenLedger se concentre davantage sur la construction de chaînes AI dédiées à l'incitation des données et des modèles, visant à rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, promouvant le chemin vers la réalisation de "modèle en tant qu'actif".
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'usine, modèle d'usine sans code
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface graphique pure, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un fine-tuning du modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
Sélection et configuration du modèle : prend en charge les LLM principaux (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement des modèles : outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel partagé de l'écosystème.
Interface de validation interactive : Fournit une interface de type chat, facilitant les tests directs des capacités de question-réponse du modèle.
Génération de traçabilité RAG : Répondre avec des références de source, renforçant la confiance et l'auditabilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous résume les capacités des grands modèles linguistiques actuellement pris en charge par ModelFactory :
LLaMA série : écosystème le plus large, communauté active, performances générales élevées, c'est l'un des modèles de base open source les plus populaires actuellement.
Mistral : Architecture efficace, performances d'inférence excellentes, adaptée aux déploiements flexibles et aux ressources limitées.
Qwen : Produit par Alibaba, excelle dans les tâches en chinois, possède de solides capacités, idéal pour les développeurs nationaux.
ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Autrefois une référence de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : un support multilingue assez fort, mais des performances d'inférence faibles, adapté aux recherches de couverture linguistique.
GPT-2 : modèle classique précoce, adapté uniquement à des fins pédagogiques et de validation, son utilisation en production n'est pas recommandée.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE à haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration "priorité à l'utile" basée sur les contraintes réalistes du déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de modularité, par rapport aux outils de développement de modèles traditionnels :
Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les Agents comme vous le feriez avec un appel API.
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode d'ajustement de paramètres efficace, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans de grands modèles pré-entraînés, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions-réponses juridiques, les consultations médicales), un ajustement (fine-tuning) est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées." Ces paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode d'ajustement la plus adaptée au déploiement de modèles Web3 et aux appels combinés.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement pour le déploiement multi-modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en favorisant l'exécution de l'"IA payante" (Payable AI).
Les composants clés de l'architecture système OpenLoRA, basés sur une conception modulaire, couvrent le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes cruciales, réalisant des capacités de déploiement et d'appel multi-modèles efficaces et à faible coût :
Module de stockage LoRA Adapter (LoRA Adapters Storage) : L'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo et économisant des ressources.
Hébergement de modèle et couche de fusion dynamique (Model Hosting & Adapter Merging Layer) : Tous les modèles ajustés partagent le modèle de base (base model), lors de l'inférence, l'adaptateur LoRA se fusionne dynamiquement, supporte plusieurs adaptateurs.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
21 J'aime
Récompense
21
7
Partager
Commentaire
0/400
ZKSherlock
· 07-07 02:33
en fait... leur modèle de composabilité manque d'attestation cryptographique appropriée. comment pouvons-nous faire confiance à la sécurité informationnelle sans couches de validation ZK ? *soupir*
Voir l'originalRépondre0
MidsommarWallet
· 07-05 20:51
Wow, c'est trop profond, je m'en vais.
Voir l'originalRépondre0
ContractCollector
· 07-04 19:16
Gaspiller un GPU à jouer pendant un an
Voir l'originalRépondre0
DegenMcsleepless
· 07-04 19:15
entrer dans une position et courir, l'IA n'a pas tant de détours.
Voir l'originalRépondre0
RugResistant
· 07-04 19:15
Encore un coup de pub, ça aurait dû s'appeler jeton escroc.
Voir l'originalRépondre0
GhostWalletSleuth
· 07-04 19:05
La puissance de calcul aurait dû être condamnée depuis longtemps.
Voir l'originalRépondre0
MetaverseVagabond
· 07-04 18:57
Est-ce que ça va frapper ? Cet agent intelligent va devenir encore plus fort.
OpenLedger construit un écosystème Web3 AI basé sur des données et des modèles modulaires.
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et modélisable.
I. Introduction | La transition des couches de modèles de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure AI, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul) qui sont tous indispensables. Tout comme le chemin d'évolution de l'infrastructure de l'industrie AI traditionnelle, le domaine du Crypto AI a également traversé des étapes similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant souvent l'accent sur une logique de croissance extensive "concurrentielle en puissance de calcul". Cependant, en 2025, l'attention de l'industrie s'est progressivement déplacée vers les niveaux de modèles et de données, marquant ainsi une transition du Crypto AI d'une compétition pour les ressources de base à une construction de niveau intermédiaire plus durable et ayant une valeur d'application.
Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage traditionnels (LLM) dépendent fortement de grands ensembles de données et d'architectures distribuées complexes, avec une échelle de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des techniques comme LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances dans des domaines spécifiques, tout en réduisant considérablement les coûts de formation et le seuil technique.
Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture d'Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et le RAG (génération augmentée par la recherche). Cette architecture préserve la large couverture du LLM tout en améliorant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, sur la base de modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en ajustant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :
Analyse de la classification des types de modèles AI et de leur applicabilité à la blockchain
Il en ressort que les points d'ancrage viables des projets de type Crypto AI dans les modèles se concentrent principalement sur l'allégement et le réglage fin des petits SLM, l'intégration et la vérification des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de token, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources faibles à moyennes, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
Une chaîne blockchain AI basée sur des données et des modèles peut enregistrer de manière claire et immuable la provenance des contributions de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme des contrats intelligents, la distribution des récompenses est automatiquement déclenchée lors de l'appel de données ou de modèles, transformant ainsi le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitations durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.
II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de "Payable AI", visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications d'IA à collaborer sur la même plateforme et à obtenir des revenus on-chain en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de "fourniture de données" à "déploiement de modèles" en passant par "appel de partage des bénéfices", ses modules principaux comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique d'agents intelligents" basée sur les données et combinable en modèles, favorisant la chaîne de valeur de l'IA sur la blockchain.
Dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur le niveau inférieur et mettent l'accent sur la souveraineté des données et l'architecture "AI Agents on BOS", OpenLedger se concentre davantage sur la construction de chaînes AI dédiées à l'incitation des données et des modèles, visant à rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation pour les modèles dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, promouvant le chemin vers la réalisation de "modèle en tant qu'actif".
Trois, les composants clés et l'architecture technique d'OpenLedger
3.1 Modèle d'usine, modèle d'usine sans code
ModelFactory est une plateforme de fine-tuning de grands modèles de langage (LLM) dans l'écosystème OpenLedger. Contrairement aux cadres de fine-tuning traditionnels, ModelFactory offre une interface graphique pure, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer un fine-tuning du modèle sur la base des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et durablement monétisable.
Le tableau ci-dessous résume les capacités des grands modèles linguistiques actuellement pris en charge par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE à haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration "priorité à l'utile" basée sur les contraintes réalistes du déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de modularité, par rapport aux outils de développement de modèles traditionnels :
3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning
LoRA (Low-Rank Adaptation) est une méthode d'ajustement de paramètres efficace, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans de grands modèles pré-entraînés, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions-réponses juridiques, les consultations médicales), un ajustement (fine-tuning) est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées." Ces paramètres sont efficaces, l'entraînement est rapide et le déploiement est flexible, ce qui en fait la méthode d'ajustement la plus adaptée au déploiement de modèles Web3 et aux appels combinés.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécifiquement pour le déploiement multi-modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en favorisant l'exécution de l'"IA payante" (Payable AI).
Les composants clés de l'architecture système OpenLoRA, basés sur une conception modulaire, couvrent le stockage de modèles, l'exécution d'inférences, le routage des requêtes et d'autres étapes cruciales, réalisant des capacités de déploiement et d'appel multi-modèles efficaces et à faible coût :