OpenLedgerはデータ駆動型でモデルが組み合わさるWeb3 AIエコシステムを構築します

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルが組み合わせ可能なエージェント経済を構築する

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデルと算力は AI インフラストラクチャの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)は欠かせないものです。従来の AI 業界のインフラの進化パスに似て、Crypto AI 分野も類似の段階を経てきました。2024 年初頭、市場は一時的に分散型 GPU プロジェクトに支配され、「算力を競う」という粗放な成長ロジックが普及しました。しかし 2025 年に入ると、業界の関心は次第にモデルとデータ層に移り、Crypto AI が根本的なリソース競争から、より持続可能で応用価値のある中層構築へと移行していることを示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B〜500Bに達することもあります。一度のトレーニングコストは数百万ドルに達することが一般的です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に削減します。

注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットスワップ、RAG(検索強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟な組み合わせ型インテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は

  • 技術的ハードルが高すぎる:Foundation Modelのトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大で、現在のところ米国や中国などのテクノロジー大手のみが相応の能力を持っています。
  • オープンソースエコシステムの限界:主流の基盤モデルはオープンソース化されているものの、モデルの突破を推進する鍵は依然として研究機関とクローズドエンジニアリングシステムに集中しており、オンチェーンプロジェクトはコアモデルレイヤーでの参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは依然として特化言語モデル(SLM)を微調整し、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に体現されています:

  • 信頼性の検証層:オンチェーンでモデル生成のパス、データの貢献と使用状況を記録することで、AI出力の追跡可能性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を奨励し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

このことから、モデル型Crypto AIプロジェクトの実行可能な落とし所は、主に小型SLMの軽量化微調整、RAGアーキテクチャのブロックチェーンデータ接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AIの"インターフェース層"の差別化された価値を形成します。

データとモデルに基づくブロックチェーンAIチェーンは、各データとモデルの貢献元を明確かつ改ざん不可能な形でオンチェーン記録することができ、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データやモデルが呼び出される際に自動的に報酬分配がトリガーされ、AIの行動が測定可能で取引可能なトークン化された価値に変換され、持続可能なインセンティブシステムが構築されます。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と反復に参加し、分散型ガバナンス構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedger の AI チェーンビジョン

OpenLedgerは、現在の市場で数少ないデータとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。"Payable AI"という概念を初めて提唱し、公平で透明かつコンポーザブルなAI運営環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション開発者が同じプラットフォームで協力し、実際の貢献に応じてオンチェーン収益を得ることができるようにします。

OpenLedgerは、"データ提供"から"モデルデプロイ"、さらには"コールリベニュー"までの全チェーンのクローズドループを提供しており、そのコアモジュールには次のものが含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMを基にLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、デプロイコストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーンを対象とした構造化データネットワークであり、コミュニティの協力によって構築・検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデル市場。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わさる「スマートエージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を推進しています。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OPスタックに基づいて構築:Optimismテクノロジースタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換: 開発者が Solidity に基づいて迅速にデプロイおよび拡張するのに便利;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を確保します。

NEARのようなより基盤的で、データ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンに対して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力し、モデルの開発と呼び出しをチェーン上で追跡可能、コンポーザブル、持続可能な価値のクローズドループで実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルのホスティング、使用課金、チェーン上のコンポーザブルインターフェースを組み合わせて「モデルは資産」という実現の道を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー,コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステムにおける大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は必要ありません。ユーザーは OpenLedger 上で完了した認可と審査のデータセットに基づいてモデルを微調整できます。データの認可、モデルのトレーニング、およびデプロイメントの統合ワークフローが実現されており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、プロバイダーが承認し、データが自動的にモデルトレーニングインターフェースに接続される。
  • モデル選択と設定:主流のLLM(例えばLLaMA、Mistral)をサポートし、GUIを通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポートします。
  • インタラクティブ検証インターフェース: チャット式のインターフェースを提供し、モデルの問答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出所を引用した回答で、信頼性と監査可能性を向上させる。

Model Factoryシステムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAGトレーサビリティを通じて、6つの主要モジュールを含み、安全で制御可能、リアルタイムのインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広範で、コミュニティが活発、汎用性能が高く、現在最も主流なオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟なデプロイメントやリソースが限られたシナリオに適しています。
  • Qwen:アリババ製、中文タスクにおいて優れたパフォーマンスを発揮し、総合能力が高く、国内の開発者に最適な選択です。
  • ChatGLM:中国語の会話効果が優れており、専門的なカスタマーサービスやローカライズされたシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、すぐに使い始めたり実験したりしやすい。
  • Falcon:かつては性能の基準であり、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しています。
  • BLOOM:多言語サポートが強いが、推論性能が弱めで、言語カバレッジ型研究に適している。
  • GPT-2:初期のクラシックモデルで、教育および検証目的にのみ適しており、実際のデプロイメントでの使用は推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、チェーン上のデプロイメントに基づく現実的な制約(推論コスト、RAG適応、LoRA互換、EVM環境)に基づいて"実用優先"の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ提供者とモデル開発者の権利を確保しています。低いハードル、収益化能力、組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較すると:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供;
  • プラットフォームについて:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、事前学習済みの大規模モデルに「低秩行列」を挿入することで新しいタスクを学習する効率的なパラメータ微調整手法であり、元のモデルのパラメータを変更せずに、トレーニングコストとストレージの要求を大幅に削減します。従来の大規模言語モデル(例:LLaMA、GPT-3)は通常数十億から千億のパラメータを持っています。これらを特定のタスク(例:法律質問応答、医療相談)に使用するには微調整(fine-tuning)が必要です。LoRAの核心戦略は、「元の大規模モデルのパラメータを凍結し、新しく挿入するパラメータ行列だけを訓練する」ことです。そのパラメータ効率、トレーニングの速さ、デプロイの柔軟性により、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整手法です。

OpenLoRAはOpenLedgerが構築した、複数のモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。そのコアの目的は、現在のAIモデルのデプロイにおける一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「支払可能なAI」(Payable AI)の実現を促進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントで、モジュール設計に基づき、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率、低コストのマルチモデルデプロイおよび呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール (LoRAアダプターのストレージ):微調整されたLoRAアダプターはOpenLedger上にホスティングされ、オンデマンドでロードされ、すべてのモデルを事前にメモリにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックマージングレイヤー (Model Hosting & Adapter Merging Layer):すべてのファインチューニングモデルはベースモデル(base model)を共有し、推論時にLoRAアダプタがダイナミックにマージされ、複数のアダプタをサポートします。
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 7
  • 共有
コメント
0/400
ZKSherlockvip
· 07-07 02:33
実際... 彼らのモデルのコンポーザビリティには適切な暗号認証が欠けています。ZK検証レイヤーなしで情報理論的なセキュリティをどのように信頼できますか?*ため息*
原文表示返信0
MidsommarWalletvip
· 07-05 20:51
わあ、難しすぎる!逃げるね!
原文表示返信0
ContractCollectorvip
· 07-04 19:16
無駄にGPUを使って一年間遊んだ
原文表示返信0
DegenMcsleeplessvip
· 07-04 19:15
参入ポジションして走る AI はそんなに多くの曲がりくねりはない
原文表示返信0
RugResistantvip
· 07-04 19:15
また噂です。早く詐欺通貨と改名した方がいいです。
原文表示返信0
GhostWalletSleuthvip
· 07-04 19:05
拼コンピューティングパワー早该運命了
原文表示返信0
MetaverseVagabondvip
· 07-04 18:57
ハンマーを使うのか?この知能体がもっと強くなるのか。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)