OpenLedger Глибина дослідження: на базі OP Stack + EigenDA створення економіки агентів, що керується даними та модульно комбінується
Один. Вступ | Модельний рівень Crypto AI
Дані, моделі та обчислювальні потужності є трьома основними елементами інфраструктури ШІ, що аналогічно паливу (дані), двигуну (модель), енергії (обчислювальні потужності) є незамінними. Як і в традиційній інфраструктурі ШІ, сфера Crypto AI також пройшла подібні етапи. На початку 2024 року ринок був під впливом децентралізованих проектів GPU, які в основному підкреслювали логіку грубого зростання "змагання обчислювальних потужностей". Але з початком 2025 року увага галузі поступово перемістилася на рівень моделей та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного у застосуванні середнього рівня побудови.
Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) в значній мірі залежать від масштабних наборів даних та складних розподілених архітектур, розмір параметрів часто сягає 70B~500B, а вартість одного навчання може досягати кількох мільйонів доларів. Натомість SLM (Спеціалізована мовна модель) як легка парадигма мікронастроювання повторно використовуваних базових моделей зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, швидко створюючи експертні моделі з специфічними знаннями в певній галузі, що суттєво знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через виклики архітектури Agent, динамічну маршрутизацію через систему плагінів, гаряче підключення модулів LoRA, RAG (покращене генерування на основі пошуку) тощо. Ця архітектура зберігає широкі можливості LLM і одночасно підсилює професійні показники через модулі тонкої настройки, формуючи високо гнучку комбінаційну інтелектуальну систему.
Crypto AI в цінності та межах модельного рівня
Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому, що
Технічний поріг занадто високий: обсяг даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, на даний момент лише у таких технологічних гігантів, як США та Китай, є відповідні можливості.
Обмеження відкритої екосистеми: хоча основні моделі з відкритим кодом вже доступні, справжній прорив у розвитку моделей все ще зосереджений у науково-дослідних установах та закритих інженерних системах, а участь проектів на блокчейні на рівні основних моделей є обмеженою.
Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть здійснювати підгонку спеціалізованих мовних моделей (SLM) та поєднувати перевіряність і механізми стимулювання Web3 для досягнення розширення вартості. Як "периферійний інтерфейсний шар" у ланцюзі постачання AI, це виявляється в двох основних напрямках:
Достовірний верифікаційний рівень: через ончейн записи шляхів генерування моделей, внесок даних та їх використання, посилює відстежуваність і стійкість до підробок виходу ШІ.
Механізм стимулювання: за допомогою рідного токена для стимулювання таких дій, як завантаження даних, виклик моделей, виконання агентів (Agent), створення позитивного циклу навчання моделей та обслуговування.
Аналіз класифікації типів AI моделей та їх відповідності блокчейну
Отже, модельні класу Crypto AI проєктів можуть зосередитися на легкій адаптації малих SLM, підключенні та верифікації даних на ланцюгу для архітектури RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи перевірність блокчейну та механізм токенів, Crypto може надати унікальну цінність для цих сценаріїв моделей середніх та низьких ресурсів, формуючи диференційовану цінність "інтерфейсного шару" AI.
Блокчейн AI ланцюг на основі даних і моделей може забезпечити чіткий, незмінний запис внеску джерел кожної даних і моделі, значно підвищуючи достовірність даних і відстежуваність навчання моделей. Водночас, через механізм смарт-контрактів, при виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювальну, торгівельну токенізовану вартість, що створює стійку систему заохочення. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці правил і ітерацій, вдосконалюючи децентралізовану структуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, який зосереджений на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію "Payable AI", що має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, яке стимулює співпрацю між постачальниками даних, розробниками моделей та будівельниками AI додатків на одній платформі, а також отримання доходу на основі фактичного внеску.
OpenLedger надає повний ланцюг замкнутого циклу від "надання даних" до "деплойменту моделей", а також до "виклику розподілу прибутку", основні модулі якого включають:
Модельна фабрика: без програмування можна використовувати LoRA для тонкої настройки, навчання та розгортання кастомізованих моделей на основі відкритого LLM;
OpenLoRA: підтримка одночасного існування тисячі моделей, динамічна завантаження за потребою, значне зниження витрат на розгортання;
PoA (Доказ атрибуції): реалізація вимірювання внеску та розподілу винагороди через запис викликів на ланцюгу;
Datanets: структуровані мережі даних для вертикальних сценаріїв, створені та перевірені спільнотою;
Платформа пропозицій моделей (Model Proposal Platform): комбінаційний, викликаємий та платіжний ринковий простір моделей на блокчейні.
Через вищезгадані модулі OpenLedger створила "інфраструктуру економіки агентів", яка базується на даних та є модульною, сприяючи онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для побудови високопродуктивного, економічного та перевіряємого середовища для виконання даних та контрактів для моделей ШІ.
Побудовано на OP Stack: на базі технологічного стеку Optimism, підтримує високу пропускну здатність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій та цілісності активів;
EVM сумісність: зручно для розробників швидко розгортати та розширювати на базі Solidity;
EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.
На відміну від NEAR, який є більш базовим, націленим на суверенітет даних та архітектуру "AI Agents on BOS", OpenLedger більше зосереджений на створенні спеціалізованого блокчейну для AI, орієнтованого на дані та моделі, прагнучи забезпечити відстежуваність, комбінованість та стійкість ціннісного замкнутого циклу для розробки та виклику моделей в ланцюзі. Це інфраструктура стимулювання моделей у світі Web3, яка об'єднує хостинг моделей, облік використання та комбіновані інтерфейси на ланцюзі, сприяючи реалізації "моделі як активу".
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великим платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для доопрацювання, ModelFactory пропонує чистий графічний інтерфейс без необхідності в інструментах командного рядка або API інтеграції. Користувачі можуть доопрацьовувати моделі на основі даних, які пройшли авторизацію та перевірку на OpenLedger. Це реалізує інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, провайдер перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделей.
Вибір та налаштування моделі: підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
Легке налаштування: вбудований двигун LoRA / QLoRA, що відображає процес навчання в реальному часі.
Оцінка моделі та розгортання: вбудовані інструменти оцінки, підтримують експорт для розгортання або екологічного спільного використання.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, що полегшує безпосереднє тестування здатності моделі відповідати на запитання.
Генерація RAG для відстеження: відповіді супроводжуються посиланнями на джерела, що підвищує довіру та можливість аудиту.
Архітектура системи Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особи, права доступу до даних, тонке налаштування моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу модульних послуг, яка є безпечною, контрольованою, забезпечує реальний інтерактивний зв'язок та стійку монетизацію.
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Серія LLaMA: має найширшу екосистему, активну спільноту та сильну універсальну продуктивність, є однією з найпопулярніших відкритих базових моделей.
Mistral: архітектура ефективна, продуктивність виводу надзвичайно висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: Виробництво Alibaba, відмінна продуктивність у китайських завданнях, високі комплексні можливості, підходить як перший вибір для вітчизняних розробників.
ChatGLM: Відзначається видатними результатами в китайських діалогах, підходить для вертикальних служб підтримки та локалізованих сцен.
Deepseek: демонструє переваги в генерації коду та математичному мисленні, підходить для інструментів підтримки інтелектуальної розробки.
Gemma: Легка модель, розроблена Google, з чіткою структурою, легкою для швидкого освоєння та експериментів.
Falcon: Раніше був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти зменшилася.
BLOOM: Підтримка багатьох мов досить сильна, але продуктивність висновків слабка, підходить для досліджень з охоплення мов.
GPT-2:Класична рання модель, підходить лише для навчальних та верифікаційних цілей, не рекомендується для фактичного розгортання.
Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а навпаки, була реалізована на основі реальних обмежень, пов'язаних з ончейновим розгортанням (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), з "практичним пріоритетом".
Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм підтвердження внеску, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінування, порівняно з традиційними інструментами розробки моделей:
Для розробників: надайте повний шлях до інкубації, розповсюдження та доходів моделей;
Для платформи: формування моделі обігу активів і комбінації екосистем;
Для користувачів: можна комбінувати моделі або агентів так само, як викликати API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активи моделі, що підлягає доопрацюванню на блокчейні
LoRA (Низькорангова адаптація) — це ефективний метод тонкої настройки параметрів, який навчає нові завдання шляхом вставки "низькорангних матриць" у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що істотно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів, а то й сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (наприклад, юридичні запитання, медичні консультації), необхідно провести тонку настройку (fine-tuning). Основна стратегія LoRA полягає в тому, щоб: "заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці." Ця стратегія є ефективною з точки зору параметрів, швидкою в навчанні та гнучкою в розгортанні, що робить її найбільш підходящим сучасним методом тонкої настройки для розгортання та комбінацій викликів Web3.
OpenLoRA - це легковагова інфраструктура для виведення, розроблена OpenLedger, спеціально для розгортання кількох моделей і обміну ресурсами. Її основна мета - вирішення поширених проблем, що виникають при розгортанні AI-моделей, таких як високі витрати, низька повторна використання, витрати GPU-ресурсів тощо, сприяючи реалізації "платного AI" (Payable AI).
Ядро архітектури системи OpenLoRA, основане на модульному дизайні, охоплює ключові етапи, такі як зберігання моделей, виконання висновків, маршрутизація запитів тощо, забезпечуючи ефективні та низькі за вартістю можливості для розгортання та виклику декількох моделей:
LoRA Адаптер Сховище (LoRA Адаптери Сховище): Налаштований LoRA адаптер зберігається на OpenLedger, що дозволяє завантажувати за запитом, уникаючи попереднього завантаження всіх моделей у пам'ять, економлячи ресурси.
Модельне хостинг та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з підстроюванням спільно використовують базову велику модель (base model), під час інференції динамічно зливаються адаптери LoRA, підтримується кілька адаптерів.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
21 лайків
Нагородити
21
7
Поділіться
Прокоментувати
0/400
ZKSherlock
· 07-07 02:33
насправді... їхня модель композабельності не має належної криптографічної атестації. як ми можемо довіряти інформаційній безпеці без шарів перевірки ZK? *sigh*
Переглянути оригіналвідповісти на0
MidsommarWallet
· 07-05 20:51
Ого, це так глибоко! Я пішов!
Переглянути оригіналвідповісти на0
ContractCollector
· 07-04 19:16
Тратив gpu на гру протягом року
Переглянути оригіналвідповісти на0
DegenMcsleepless
· 07-04 19:15
увійти в позицію і бігти, AI не так багато вигинів
Переглянути оригіналвідповісти на0
RugResistant
· 07-04 19:15
Знову це рекламний трюк, давно вже слід було назвати його монетою-шахраєм.
Переглянути оригіналвідповісти на0
GhostWalletSleuth
· 07-04 19:05
пригнічений
Переглянути оригіналвідповісти на0
MetaverseVagabond
· 07-04 18:57
Чи не занадто це? Цей інтелектуальний агент стає ще сильнішим.
OpenLedger створює екосистему Web3 AI, що базується на даних і моделях, які можна комбінувати
OpenLedger Глибина дослідження: на базі OP Stack + EigenDA створення економіки агентів, що керується даними та модульно комбінується
Один. Вступ | Модельний рівень Crypto AI
Дані, моделі та обчислювальні потужності є трьома основними елементами інфраструктури ШІ, що аналогічно паливу (дані), двигуну (модель), енергії (обчислювальні потужності) є незамінними. Як і в традиційній інфраструктурі ШІ, сфера Crypto AI також пройшла подібні етапи. На початку 2024 року ринок був під впливом децентралізованих проектів GPU, які в основному підкреслювали логіку грубого зростання "змагання обчислювальних потужностей". Але з початком 2025 року увага галузі поступово перемістилася на рівень моделей та даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного у застосуванні середнього рівня побудови.
Загальний великий модель (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) в значній мірі залежать від масштабних наборів даних та складних розподілених архітектур, розмір параметрів часто сягає 70B~500B, а вартість одного навчання може досягати кількох мільйонів доларів. Натомість SLM (Спеціалізована мовна модель) як легка парадигма мікронастроювання повторно використовуваних базових моделей зазвичай базується на відкритих моделях, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології, такі як LoRA, швидко створюючи експертні моделі з специфічними знаннями в певній галузі, що суттєво знижує витрати на навчання та технічні бар'єри.
Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через виклики архітектури Agent, динамічну маршрутизацію через систему плагінів, гаряче підключення модулів LoRA, RAG (покращене генерування на основі пошуку) тощо. Ця архітектура зберігає широкі можливості LLM і одночасно підсилює професійні показники через модулі тонкої настройки, формуючи високо гнучку комбінаційну інтелектуальну систему.
Crypto AI в цінності та межах модельного рівня
Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому, що
Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть здійснювати підгонку спеціалізованих мовних моделей (SLM) та поєднувати перевіряність і механізми стимулювання Web3 для досягнення розширення вартості. Як "периферійний інтерфейсний шар" у ланцюзі постачання AI, це виявляється в двох основних напрямках:
Аналіз класифікації типів AI моделей та їх відповідності блокчейну
Отже, модельні класу Crypto AI проєктів можуть зосередитися на легкій адаптації малих SLM, підключенні та верифікації даних на ланцюгу для архітектури RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи перевірність блокчейну та механізм токенів, Crypto може надати унікальну цінність для цих сценаріїв моделей середніх та низьких ресурсів, формуючи диференційовану цінність "інтерфейсного шару" AI.
Блокчейн AI ланцюг на основі даних і моделей може забезпечити чіткий, незмінний запис внеску джерел кожної даних і моделі, значно підвищуючи достовірність даних і відстежуваність навчання моделей. Водночас, через механізм смарт-контрактів, при виклику даних або моделей автоматично ініціюється розподіл винагород, перетворюючи поведінку AI на вимірювальну, торгівельну токенізовану вартість, що створює стійку систему заохочення. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей через голосування токенами, брати участь у розробці правил і ітерацій, вдосконалюючи децентралізовану структуру управління.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI-ланцюга OpenLedger
OpenLedger є одним із небагатьох блокчейн AI проектів на ринку, який зосереджений на механізмах стимулювання даних та моделей. Він вперше запропонував концепцію "Payable AI", що має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, яке стимулює співпрацю між постачальниками даних, розробниками моделей та будівельниками AI додатків на одній платформі, а також отримання доходу на основі фактичного внеску.
OpenLedger надає повний ланцюг замкнутого циклу від "надання даних" до "деплойменту моделей", а також до "виклику розподілу прибутку", основні модулі якого включають:
Через вищезгадані модулі OpenLedger створила "інфраструктуру економіки агентів", яка базується на даних та є модульною, сприяючи онлайнізації ціннісного ланцюга AI.
А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для побудови високопродуктивного, економічного та перевіряємого середовища для виконання даних та контрактів для моделей ШІ.
На відміну від NEAR, який є більш базовим, націленим на суверенітет даних та архітектуру "AI Agents on BOS", OpenLedger більше зосереджений на створенні спеціалізованого блокчейну для AI, орієнтованого на дані та моделі, прагнучи забезпечити відстежуваність, комбінованість та стійкість ціннісного замкнутого циклу для розробки та виклику моделей в ланцюзі. Це інфраструктура стимулювання моделей у світі Web3, яка об'єднує хостинг моделей, облік використання та комбіновані інтерфейси на ланцюзі, сприяючи реалізації "моделі як активу".
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великим платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків для доопрацювання, ModelFactory пропонує чистий графічний інтерфейс без необхідності в інструментах командного рядка або API інтеграції. Користувачі можуть доопрацьовувати моделі на основі даних, які пройшли авторизацію та перевірку на OpenLedger. Це реалізує інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:
Архітектура системи Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особи, права доступу до даних, тонке налаштування моделей, оцінку та розгортання, а також RAG трасування, створюючи інтегровану платформу модульних послуг, яка є безпечною, контрольованою, забезпечує реальний інтерактивний зв'язок та стійку монетизацію.
Модельний завод наразі підтримує такі можливості великих мовних моделей:
Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а навпаки, була реалізована на основі реальних обмежень, пов'язаних з ончейновим розгортанням (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM), з "практичним пріоритетом".
Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм підтвердження внеску, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінування, порівняно з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активи моделі, що підлягає доопрацюванню на блокчейні
LoRA (Низькорангова адаптація) — це ефективний метод тонкої настройки параметрів, який навчає нові завдання шляхом вставки "низькорангних матриць" у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що істотно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів, а то й сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (наприклад, юридичні запитання, медичні консультації), необхідно провести тонку настройку (fine-tuning). Основна стратегія LoRA полягає в тому, щоб: "заморозити параметри оригінальної великої моделі, навчати лише вставлені нові параметричні матриці." Ця стратегія є ефективною з точки зору параметрів, швидкою в навчанні та гнучкою в розгортанні, що робить її найбільш підходящим сучасним методом тонкої настройки для розгортання та комбінацій викликів Web3.
OpenLoRA - це легковагова інфраструктура для виведення, розроблена OpenLedger, спеціально для розгортання кількох моделей і обміну ресурсами. Її основна мета - вирішення поширених проблем, що виникають при розгортанні AI-моделей, таких як високі витрати, низька повторна використання, витрати GPU-ресурсів тощо, сприяючи реалізації "платного AI" (Payable AI).
Ядро архітектури системи OpenLoRA, основане на модульному дизайні, охоплює ключові етапи, такі як зберігання моделей, виконання висновків, маршрутизація запитів тощо, забезпечуючи ефективні та низькі за вартістю можливості для розгортання та виклику декількох моделей: