Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої співпраці в технологічній трансформації

Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої кооперації технологічної революції

У повній вартісній ланцюгу ШІ навчання моделей є етапом з найбільшими витратами ресурсів та найвищими технологічними бар'єрами, що безпосередньо визначає верхню межу здатностей моделі та фактичні результати застосування. У порівнянні з легкими викликами на етапі висновку, процес навчання вимагає постійних інвестицій у потужні обчислення, складні процеси обробки даних та підтримку високоефективних алгоритмів оптимізації, що є справжньою "важкою промисловістю" у побудові систем ШІ. З точки зору архітектурних парадигм, способи навчання можна класифікувати на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою даної статті.

Еволюція парадигми навчання AI: від централізованого контролю до децентралізованої співпраці технологічної революції

Централізоване навчання є найпоширенішим традиційним способом, коли єдина організація виконує весь процес навчання на локальному високопродуктивному кластері. Від апаратного забезпечення, основного програмного забезпечення, системи управління кластером до всіх компонентів навчальної рамки, все координується єдиною системою управління. Ця глибоко координована архітектура забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів та механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, споживання енергії та ризику єдиної точки.

Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично воно має "розподілені" характеристики, в цілому воно все ще контролюється централізованими установами для управління та синхронізації, зазвичай працює в середовищі з високошвидкісною локальною мережею, завдяки технології високошвидкісної зв'язку NVLink, основний вузол координує всі підзавдання. Основні методи включають:

  • Паралельне оброблення даних: кожен вузол навчає різні дані, параметри спільні, потрібно узгодити ваги моделі
  • Модульна паралельність: розгортання різних частин моделі на різних вузлах для досягнення сильної масштабованості;
  • Паралельне трубопровід: поетапне серійне виконання, підвищення пропускної здатності;
  • Тензорне паралелювання: детальне розділення матричних обчислень, підвищення паралельної гранулярності.

Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же бос дистанційно керує співробітниками в кількох "офісах", щоб виконати завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.

Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька взаємно недовірливих вузлів спільно виконують завдання тренування без центрального координатора, зазвичай через протоколи, що забезпечують розподіл завдань та співпрацю, а також за допомогою механізму криптостимулів для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:

  • Гетерогенність пристроїв та складність розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань;
  • Вузьке місце в ефективності зв'язку: нестабільний мережевий зв'язок, помітне вузьке місце в синхронізації градієнтів;
  • Відсутність довіреного виконання: відсутність довіреного середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у обчисленнях;
  • Відсутність єдиної координації: немає центрального диспетчера, розподіл завдань, механізм повернення в разі виключення складні.

Децентралізація тренування можна зрозуміти як: група добровольців з усього світу, які спільно вносять обчислювальні потужності для тренування моделі, але "справді життєздатне велике децентралізоване тренування" все ще є системним інженерним викликом, який охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, перевірку моделей та інші аспекти, але чи можливо "ефективно співпрацювати + заохочувати чесність + отримувати правильні результати" все ще перебуває на ранній стадії прототипування.

Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює локальне збереження даних та централізовану агрегацію параметрів моделі, що підходить для сцен, які акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні кооперативні можливості, одночасно володіючи перевагами розподілу даних у контексті децентралізованого навчання, але все ж залежить від надійних координуючих сторін і не має повністю відкритих та стійких до цензури характеристик. Це можна розглядати як "контрольовану децентралізацію" в умовах відповідності вимогам конфіденційності, де завдання навчання, структура довіри та комунікаційні механізми є відносно помірними, що робить його більш придатним для промислових перехідних архітектур.

Еволюція парадигми AI тренування: від централізованого контролю до децентралізованої співпраці в технологічній революції

Децентралізація навчання: межі, можливості та реальні шляхи

З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях через складність структури завдання, надзвичайно високі вимоги до ресурсів або значні труднощі співпраці природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення та синхронізацію в відкритих мережах; завдання, які обмежені вимогами до конфіденційності даних та суверенітету, обмежені правовою відповідністю та етичними обмеженнями, не можуть бути відкрито спільно використані; а завдання, які не мають основи для співпраці, не мають зовнішнього стимулу для участі. Ці межі спільно формують реальні обмеження сучасного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є хибним. Насправді, в структурах легкого ваги, які легко паралелізуються та можуть бути стимульованими, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: LoRA доопрацювання, завдання навчання після поведінкового вирівнювання, навчання та розмітка даних за принципом краудсорсингу, навчання малих базових моделей під контролем ресурсів, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенних обчислювальних потужностей, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори та інші методи.

Еволюція парадигми навчання AI: від централізованого контролю до технологічної революції децентралізованої співпраці

Децентралізація тренування класичних проектів аналіз

Наразі у сфері децентралізованого навчання та федеративного навчання представницькими блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічної інноваційності та складності інженерної реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та дизайні алгоритмів, що представляє сучасні напрямки теоретичних досліджень; тоді як реалізація Gensyn та Flock.io є відносно чіткою, вже видно перші інженерні досягнення. У цій статті буде послідовно проаналізовано основні технології та інженерні архітектури цих п’яти проектів, а також обговорено їх відмінності та взаємодоповнюючі відносини у децентралізованій системі навчання штучного інтелекту.

Prime Intellect: попередник кооперативних мереж з підсилювальним навчанням, що підтверджують траєкторії тренування

Prime Intellect прагне побудувати мережу тренування ШІ без необхідності довіри, що дозволяє будь-кому брати участь у тренуванні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити систему децентралізованого тренування ШІ з трьома основними модулями: PRIME-RL + TOPLOC + SHARDCAST, яка буде мати перевірність, відкритість та повноцінний механізм стимулювання.

Prime Intellect випустила INTELLECT-2 у травні 2025 року, що стало першим у світі великим моделлю посилення навчання, створеною за допомогою асинхронного, бездокументного Децентралізація вузлів. Модель INTELLECT-2 має параметрний масштаб 32B. Модель INTELLECT-2 була завершена за допомогою спільного навчання понад 100 GPU гетерогенних вузлів, розташованих на трьох континентах, з використанням повністю асинхронної архітектури, час навчання перевищує 400 годин, демонструючи життєздатність і стабільність асинхронної кооперативної мережі. Ця модель є не лише проривом у продуктивності, але й першим системним втіленням парадигми "навчання є консенсусом", запропонованої Prime Intellect. INTELLECT-2 інтегрує ключові протокольні модулі, такі як PRIME-RL (асинхронна структура навчання), TOPLOC (верифікація навчальної поведінки) та SHARDCAST (асинхронна агрегація ваги), що знаменує перше досягнення відкритості, верифікації та економічних стимулів у процесі навчання в мережі децентралізованого навчання.

У плані продуктивності INTELLECT-2 базується на QwQ-32B, пройшов спеціальне навчання RL в коді та математиці та знаходиться на передньому краї поточних відкритих моделей мікронастроювання RL. Хоча він ще не перевершив закриті моделі, такі як GPT-4 або Gemini, його справжнє значення полягає в тому, що це перший у світі експеримент децентралізованої моделі, процес навчання якого можна повністю відтворити, перевірити і аудиторувати. Prime Intellect не тільки відкрив модель, але й, що більш важливо, відкрив сам процес навчання - навчальні дані, траєкторії оновлення стратегій, процеси валідації та логіку агрегації є прозорими та доступними для перевірки, що створює прототип децентралізованої мережі навчання, в якій можуть брати участь усі, на якій можна довіряти, співпрацювати та ділитися прибутком.

Еволюція парадигми навчання AI: від централізованого контролю до технічної революції децентралізованої співпраці

Pluralis: Дослідник парадигми асинхронного моделювання, паралельного та структурного стиснення в спільному навчанні

Pluralis є веб3 AI проектом, який спеціалізується на "надійній спільній навчальній мережі", основною метою якого є просування моделі навчання, що базується на децентралізації, відкритій участі та механізмах довгострокових стимулів. На відміну від сучасних домінуючих централізованих або закритих шляхів навчання, Pluralis пропонує нову концепцію під назвою Protocol Learning (протокольне навчання): "протоколізувати" процес навчання моделі, створюючи відкриту навчальну систему з внутрішніми стимулюючими механізмами через перевіряємий механізм співпраці та відображення власності на модель.

Protocol Learning, запропонований Pluralis, містить три ключові стовпи:

  • Невитягувана модель: модель розподілена у фрагментах між кількома вузлами, жоден окремий вузол не може відновити повну вагу, зберігаючи закритий вихід. Цей дизайн робить модель природним "активом у протоколі", що дозволяє реалізувати контроль доступу, захист від витоку та зв'язування прав на прибуток.
  • Моделі паралельного навчання на основі Інтернету: через асинхронний механізм паралельного моделювання Pipeline (архітектура SWARM) різні вузли мають лише частину ваг, співпрацюючи через мережу з низькою пропускною здатністю для завершення навчання або інференції.
  • Розподіл прав власності на основі внеску: всі учасники вузлів отримують часткові права власності на модель відповідно до їх внеску в навчання, що дає їм право на майбутній розподіл доходів та право на управління протоколом.

Pluralis чітко визначає "асинхронну модель паралельності" як основний напрямок, підкреслюючи її переваги над даними паралельності:

  • Підтримка мереж з низькою пропускною здатністю та неузгоджених вузлів;
  • Адаптація до гетерогенних пристроїв, дозволяє брати участь споживчим GPU;
  • Природна здатність до еластичного планування, підтримує частий вихід/вхід вузлів;
  • Три основні прориви: стиснення структури + асинхронне оновлення + неможливість вилучення ваг.

Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої співпраці технічна революція

Gensyn: децентралізований рівень навчального протоколу, керований перевіряємим виконанням

Gensyn є проектом Web3 AI, що спеціалізується на "достовірному виконанні завдань навчання глибоких нейронних мереж". Основна мета полягає не в реконструкції архітектури моделей або навчальних парадигм, а в створенні верифікованої розподіленої мережі виконання навчання, що охоплює "розподіл завдань + виконання навчання + верифікацію результатів + справедливі стимули". Завдяки архітектурному дизайну, який передбачає навчання поза ланцюгом + верифікацію на ланцюзі, Gensyn створює ефективний, відкритий і стимулюючий глобальний ринок навчання, що робить можливим "навчання як видобуток".

Gensyn не є "як тренувати", а є інфраструктурою "хто тренує, як перевіряти, як ділити прибуток". Його суть полягає у перевірній обчислювальній протоколі для навчальних завдань, який головним чином вирішує:

  • Хто буде виконувати навчальні завдання (розподіл обчислювальної потужності та динамічне співвідношення)
  • Як перевірити результати виконання (без повторного обчислення, лише перевірка спірного оператора)
  • Як розподілити прибуток від тренування (Stake, Slashing та механізм багатокористувацької гри)

Gensyn мережа вводить чотири категорії учасників:

  • Відправник: публікація навчального завдання, встановлення структури та бюджету;
  • Solver:виконання навчальних завдань, подача результатів;
  • Verifier: перевіряє навчальну поведінку, щоб забезпечити її відповідність та ефективність;
  • Інформатор: кидати виклик валідатору, отримувати винагороду за арбітраж або нести штраф.

Цей механізм надихнувся економічною грою Truebit, через примусове введення помилок + випадковий арбітраж, стимулюючи учасників до чесної співпраці та забезпечуючи надійну роботу мережі.

![Еволюція парадигми навчання AI: від централізованого контролю до технологічної революції децентралізованої кооперації](

PRIME-4.39%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
NftCollectorsvip
· 13год тому
Після прочитання цієї статті я можу лише сказати, що Децентралізація навчання за своєю суттю має багато спільного з NFT мистецьким творінням, обидва вони досліджують нові парадигми розподілу вартості... Я вже говорив, що майбутнє — це Децентралізація, традиційні моделі навчання AI явно не встигають за інноваціями епохи web3, дані у блокчейні вже ясно вказують на великі тренди, хто розуміє, той розуміє.
Переглянути оригіналвідповісти на0
DegenDreamervip
· 08-01 18:06
Хто заплатить за такі великі витрати на навчання?
Переглянути оригіналвідповісти на0
CoinBasedThinkingvip
· 08-01 18:05
Знову велика зміна архітектури ШІ? Це лише новий трюк для підвищення обчислювальної потужності!
Переглянути оригіналвідповісти на0
BlindBoxVictimvip
· 08-01 17:58
Розподілений все ще дурний син господаря.
Переглянути оригіналвідповісти на0
SignatureVerifiervip
· 08-01 17:53
*с sigh* ще одна централізована вузька пляшка, що маскується під інновацію... статистично приречена на невдачу під навантаженням, якщо чесно.
Переглянути оригіналвідповісти на0
MeaninglessApevip
· 08-01 17:40
Звідки стільки великих слів? Якщо не розумієш, то краще мовчи.
Переглянути оригіналвідповісти на0
GasFeeLadyvip
· 08-01 17:39
так само, як комісії за газ зараз... централізоване навчання стає занадто дорогим, якщо чесно, смх
Переглянути оригіналвідповісти на0
  • Закріпити