🎉【Gate 3000萬紀念】曬出我的Gate時刻,解鎖限量好禮!
Gate用戶突破3000萬!這不僅是數字,更是我們共同的故事。
還記得第一次開通帳號的激動,搶購成功的喜悅,或陪伴你的Gate週邊嗎?
📸 參與 #我的Gate时刻# ,在Gate廣場曬出你的故事,一起見證下一個3000萬!
✅ 參與方式:
1️⃣ 帶話題 #我的Gate时刻# ,發布包含Gate元素的照片或視頻
2️⃣ 搭配你的Gate故事、祝福或感言更佳
3️⃣ 分享至Twitter(X)可參與瀏覽量前10額外獎勵
推特回鏈請填表單:https://www.gate.com/questionnaire/6872
🎁 獨家獎勵:
🏆 創意大獎(3名):Gate × F1紅牛聯名賽車模型一輛
👕 共創紀念獎(10名): 國際米蘭同款球員衛衣
🥇 參與獎(50名):Gate 品牌抱枕
📣 分享獎(10名):Twitter前10瀏覽量,送Gate × 國米小夜燈!
*海外用戶紅牛聯名賽車折合爲 $200 合約體驗券,國米同款球衣折合爲 $50 合約體驗券,國米小夜燈折合爲 $30 合約體驗券,品牌抱枕折合爲 $20 合約體驗券發放
🧠 創意提示:不限元素內容風格,曬圖帶有如Gate logo、Gate色彩、週邊產品、GT圖案、活動紀念品、活動現場圖等均可參與!
活動截止於7月25日 24:00 UTC+8
3
OpenLedger構建數據驅動和模型可組合的Web3 AI生態系統
OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟
一、引言 | Crypto AI 的模型層躍遷
數據、模型與算力是 AI 基礎設施的三大核心要素,類比燃料(數據)、引擎(模型)、能源(算力)缺一不可。與傳統 AI 行業的基礎設施演進路徑類似,Crypto AI 領域也經歷了相似的階段。2024 年初,市場一度被去中心化 GPU 項目所主導,普遍強調"拼算力"的粗放式增長邏輯。而進入 2025 年後,行業關注點逐步上移至模型與數據層,標志着 Crypto AI 正從底層資源競爭過渡到更具可持續性與應用價值的中層構建。
通用大模型(LLM)vs 特化模型(SLM)
傳統的大型語言模型(LLM)訓練高度依賴大規模數據集與復雜的分布式架構,參數規模動輒 70B~500B,訓練一次的成本常高達數百萬美元。而 SLM(Specialized Language Model)作爲一種可復用基礎模型的輕量微調範式,通常基於開源模型,結合少量高質量專業數據及 LoRA 等技術,快速構建具備特定領域知識的專家模型,顯著降低訓練成本與技術門檻。
值得注意的是,SLM 並不會被集成進 LLM 權重中,而是通過 Agent 架構調用、插件系統動態路由、LoRA 模塊熱插拔、RAG(檢索增強生成)等方式與 LLM 協作運行。這一架構既保留了 LLM 的廣覆蓋能力,又通過精調模塊增強了專業表現,形成了高度靈活的組合式智能系統。
Crypto AI 在模型層的價值與邊界
Crypto AI 項目本質上難以直接提升大語言模型(LLM)的核心能力,核心原因在於
然而,在開源基礎模型之上,Crypto AI 項目仍可通過精調特化語言模型(SLM),並結合 Web3 的可驗證性與激勵機制實現價值延伸。作爲 AI 產業鏈的"週邊接口層",體現於兩個核心方向:
AI 模型類型分類與區塊鏈適用性分析
由此可見,模型類 Crypto AI 項目的可行落點主要集中在小型 SLM 的輕量化精調、RAG 架構的鏈上數據接入與驗證、以及 Edge 模型的本地部署與激勵上。結合區塊鏈的可驗證性與代幣機制,Crypto 能爲這些中低資源模型場景提供特有價值,形成 AI"接口層"的差異化價值。
基於數據與模型的區塊鏈 AI 鏈,可對每一條數據和模型的貢獻來源進行清晰、不可篡改的上鏈記錄,顯著提升數據可信度與模型訓練的可溯性。同時,通過智能合約機制,在數據或模型被調用時自動觸發獎勵分發,將 AI 行爲轉化爲可計量、可交易的代幣化價值,構建可持續的激勵體系。此外,社區用戶還可通過代幣投票評估模型性能、參與規則制定與迭代,完善去中心化治理架構。
二、項目概述 | OpenLedger 的 AI 鏈願景
OpenLedger 是當前市場上爲數不多專注於數據與模型激勵機制的區塊鏈 AI 項目。它率先提出"Payable AI"的概念,旨在構建一個公平、透明且可組合的 AI 運行環境,激勵數據貢獻者、模型開發者與 AI 應用構建者在同一平台協作,並根據實際貢獻獲得鏈上收益。
OpenLedger 提供了從"數據提供"到"模型部署"再到"調用分潤"的全鏈條閉環,其核心模塊包括:
通過以上模塊,OpenLedger 構建了一個數據驅動、模型可組合的"智能體經濟基礎設施",推動 AI 價值鏈的鏈上化。
而在區塊鏈技術採用上,OpenLedger 以 OP Stack + EigenDA 爲底座,爲 AI 模型構建了高性能、低成本、可驗證的數據與合約運行環境。
相比於 NEAR 這類更偏底層、主打數據主權與"AI Agents on BOS"架構的通用型 AI 鏈,OpenLedger 更專注於構建面向數據與模型激勵的 AI 專用鏈,致力於讓模型的開發與調用在鏈上實現可追溯、可組合與可持續的價值閉環。它是 Web3 世界中的模型激勵基礎設施,結合模型托管、使用計費與鏈上可組合接口,推動"模型即資產"的實現路徑。
三、OpenLedger 的核心組件與技術架構
3.1 Model Factory,無需代碼模型工廠
ModelFactory 是 OpenLedger 生態下的一個大型語言模型(LLM)微調平台。與傳統微調框架不同,ModelFactory 提供純圖形化界面操作,無需命令行工具或 API 集成。用戶可以基於在 OpenLedger 上完成授權與審核的數據集,對模型進行微調。實現了數據授權、模型訓練與部署的一體化工作流,其核心流程包括:
Model Factory 系統架構包含六大模塊,貫穿身分認證、數據權限、模型微調、評估部署與 RAG 溯源,打造安全可控、實時交互、可持續變現的一體化模型服務平台。
ModelFactory 目前支持的大語言模型能力簡表如下:
雖然 OpenLedger 的模型組合並未包含最新的高性能 MoE 模型或多模態模型,但其策略並不落伍,而是基於鏈上部署的現實約束(推理成本、RAG 適配、LoRA 兼容、EVM 環境)所做出的"實用優先"配置。
Model Factory 作爲無代碼工具鏈,所有模型都內置了貢獻證明機制,確保數據貢獻者和模型開發者的權益,具有低門檻、可變現與可組合性的優點,與傳統模型開發工具相比較:
3.2 OpenLoRA,微調模型的鏈上資產化
LoRA(Low-Rank Adaptation)是一種高效的參數微調方法,通過在預訓練大模型中插入"低秩矩陣"來學習新任務,而不修改原模型參數,從而大幅降低訓練成本和存儲需求。傳統大語言模型(如 LLaMA、GPT-3)通常擁有數十億甚至千億參數。要將它們用於特定任務(如法律問答、醫療問診),就需要進行微調(fine-tuning)。LoRA 的核心策略是:"凍結原始大模型的參數,只訓練插入的新參數矩陣。",其參數高效、訓練快速、部署靈活,是當前最適合 Web3 模型部署與組合調用的主流微調方法。
OpenLoRA 是 OpenLedger 構建的一套專爲多模型部署與資源共享而設計的輕量級推理框架。它核心目標是解決當前 AI 模型部署中常見的高成本、低復用、GPU 資源浪費等問題,推動"可支付 AI"(Payable AI)的落地執行。
OpenLoRA 系統架構核心組件,基於模塊化設計,覆蓋模型存儲、推理執行、請求路由等關鍵環節,實現高效、低成本的多模型部署與調用能力: