Эволюция парадигмы обучения ИИ: от централизованного контроля к технологической революции децентрализации и сотрудничества
В полной цепочке ценностей ИИ модельное обучение является этапом с наибольшим потреблением ресурсов и самым высоким техническим порогом, что напрямую определяет пределы возможностей модели и реальные эффекты применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянных инвестиций в масштабные вычислительные мощности, сложные процессы обработки данных и высокоинтенсивную поддержку оптимизационных алгоритмов, что делает его настоящей "тяжелой промышленностью" в построении ИИ-систем. С точки зрения архитектурных парадигм методы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и Децентрализация, на которой акцентируется внимание в данной статье.
Централизованное обучение является наиболее распространенным традиционным способом, при котором единый институт завершает весь процесс обучения в локальном высокопроизводительном кластере, от аппаратного обеспечения, программного обеспечения низкого уровня, системы управления кластером до всех компонентов обучающей рамки, которые координируются единым контролирующим системом. Эта архитектура глубокой координации позволяет оптимизировать эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает её очень подходящей для обучения крупномасштабных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контроля ресурсов, но одновременно сталкиваясь с проблемами монополии данных, барьеров для ресурсов, потребления энергии и рисков единой точки.
Распределенная тренировка является основным способом тренировки больших моделей в настоящее время. Ее суть заключается в том, чтобы разбить задачи тренировки модели и распределить их между несколькими машинами для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Хотя физически она имеет "Децентрализация" характеристики, в целом она все еще контролируется и координируется централизованной организацией, часто работающей в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink, где главный узел координирует все подзадачи. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры делятся, необходимо сопоставить веса модели
Модульное параллелизм: развертывание различных частей модели на разных узлах для достижения высокой масштабируемости;
Параллельные каналы: поэтапное последовательное выполнение, повышение пропускной способности;
Тензорное параллелизм: детальная сегментация матричных вычислений, повышение параллельной гранулярности.
Распределенное обучение — это комбинация "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет несколькими сотрудниками из "офисов", совместно выполняющими задачи. В настоящее время почти все основные большие модели обучаются именно таким образом.
Децентрализация обучения представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевая характеристика заключается в следующем: несколько недоверяющих друг другу узлов совместно выполняют задачи обучения без центрального координатора, обычно с помощью протоколов, управляющих распределением задач и сотрудничеством, а также с использованием крипто-стимулов для обеспечения честности вклада. Основные вызовы, с которыми сталкивается эта модель, включают:
Проблемы с гетерогенностью устройств и разделением задач: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач;
Недостаток доверенного выполнения: отсутствие доверенной среды выполнения, сложно проверить, действительно ли узлы участвуют в вычислениях;
Недостаток единой координации: отсутствие центрального диспетчера, сложное распределение задач и механизм отката ошибок.
Децентрализация тренировки может пониматься как: группа глобальных волонтеров, которые совместно вносят вычислительную мощность для тренировки модели, но "действительно осуществимая масштабная децентрализация тренировки" все еще представляет собой системную инженерную задачу, охватывающую несколько аспектов, таких как системная архитектура, коммуникационные протоколы, криптобезопасность, экономические механизмы, валидация модели и т.д., однако возможность "совместной эффективности + стимуляция честности + правильные результаты" все еще находится на ранней стадии прототипирования.
Федеративное обучение, как переходная форма между распределенной и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что делает его подходящим для сцен, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными кооперативными возможностями, одновременно имея преимущества распределенных данных в Децентрализация, но по-прежнему зависит от доверенных координирующих сторон и не обладает полностью открытыми и антикоррупционными характеристиками. Его можно рассматривать как «контролируемую Децентрализация» в условиях соблюдения конфиденциальности, где задачи обучения, структура доверия и механизмы связи относительно мягкие, что делает его более подходящим в качестве переходной архитектуры для промышленного развертывания.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших трудностей в сотрудничестве, она изначально не подходит для эффективного выполнения между гетерогенными, недоверенными узлами. Например, обучение больших моделей часто зависит от высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи, связанные с конфиденциальностью данных и сильными ограничениями суверенитета, ограничены юридическими нормами и этическими ограничениями и не могут быть открыто поделены; а задачи, лишенные основ для сотрудничества, испытывают недостаток внешней мотивации для участия. Эти границы вместе составляют реальные ограничения текущего Децентрализация обучения.
Но это не означает, что Децентрализация обучения является ложным утверждением. На самом деле, в задачах с легкой структурой, высокой параллельностью и возможностью стимуляции, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: дообучение LoRA, задачи постобучения по согласованию действий, краудсорсинг данных для обучения и аннотирования, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии координационного обучения с участием периферийных устройств. Эти задачи, как правило, обладают высокой параллельностью, низкой связностью и толерантностью к гетерогенным вычислительным мощностям, что делает их очень подходящими для совместного обучения через P2P сети, протокол Swarm, распределенные оптимизаторы и другие методы.
Децентрализация тренировки классических проектов анализа
В настоящее время на переднем крае децентрализованного обучения и федеративного обучения представительные блокчейн-проекты в основном включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности инженерной реализации, Prime Intellect, Nous Research и Pluralis.ai представили множество оригинальных исследований в системной архитектуре и проектировании алгоритмов, представляя собой передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть начальный инженерный прогресс. В данной статье будут поэтапно проанализированы ключевые технологии и инженерные архитектуры, стоящие за этими пятью проектами, и далее будет обсуждено их различие и взаимодополнение в децентрализованной системе обучения ИИ.
Prime Intellect: пионер сети совместного обучения с подтверждаемыми траекториями обучения
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, чтобы любой мог участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect хочет создать децентрализованную систему обучения ИИ с возможностью верификации, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
В мае 2025 года Prime Intellect выпустил INTELLECT-2, который является первой в мире большой моделью глубокого обучения, обученной с помощью асинхронного, не требующего доверия, Децентрализация узлов. Размер параметров достигает 32B. Модель INTELLECT-2 была обучена с использованием более 100 гетерогенных узлов GPU, расположенных на трех континентах, с полностью асинхронной архитектурой и временем обучения более 400 часов, что демонстрирует осуществимость и стабильность асинхронной сети сотрудничества. Эта модель не только представляет собой прорыв в производительности, но также является первой системной реализацией парадигмы "обучение = консенсус", предложенной Prime Intellect. INTELLECT-2 интегрирует ключевые протоколы, такие как PRIME-RL (асинхронная структура обучения), TOPLOC (верификация действий обучения) и SHARDCAST (асинхронная агрегация весов), что знаменует собой первое достижение открытости, проверяемости и замкнутого экономического стимулирования в процессе обучения в Децентрализация сети.
В плане производительности INTELLECT-2 основан на QwQ-32B и прошел специализированное RL-обучение в коде и математике, находясь на переднем крае современных открытых RL-тонких настроек моделей. Хотя он еще не превосходит закрытые модели, такие как GPT-4 или Gemini, его истинное значение заключается в том, что это первая в мире полностью воспроизводимая, проверяемая и подлежащая аудиту децентрализованная модель эксперимента. Prime Intellect не только открыл исходный код модели, но что более важно, открыл сам процесс обучения - данные для обучения, траектории обновления стратегии, процессы валидации и логику агрегации полностью прозрачны и доступны для проверки, создавая прототип децентрализованной сети обучения, в которой каждый может участвовать, доверять совместной работе и делиться доходами.
Pluralis: Исследователь парадигмы совместного обучения асинхронных моделей параллельного и структурного сжатия
Pluralis — это проект Web3 AI, сосредоточенный на "доверительном совместном обучении сетей", чья основная цель — продвижение модели обучения, ориентированной на децентрализацию, открытое участие и долгосрочные механизмы стимулирования. В отличие от текущих мейнстримных централизованных или закрытых путей обучения, Pluralis предлагает совершенно новую концепцию под названием Protocol Learning (обучение по протоколу): процесс обучения модели "протоколизируется", создавая открытую обучающую систему с внутренним замкнутым контуром стимулов через проверяемые механизмы сотрудничества и отображение прав собственности на модель.
Protocol Learning, предложенный Pluralis, включает три ключевых столпа:
Невозможно извлечь модель: модель распределена в виде фрагментов между несколькими узлами, и ни один отдельный узел не может восстановить полные веса, оставаясь закрытым. Такой дизайн делает модель естественным "активом внутри протокола", что позволяет реализовать контроль доступа, защиту от утечек и привязку к получению доходов.
Модели параллельного обучения на основе Интернета: с помощью асинхронного механизма параллельного обучения Pipeline (архитектура SWARM) разные узлы хранят только часть весов и совместно обучают или делают выводы через сеть с низкой пропускной способностью.
Распределение прав собственности по модели вклада: все участвующие узлы получают долю прав собственности на модель в зависимости от их вкладов в обучение, что дает им право на участие в будущем распределении доходов и управлении протоколом.
Pluralis четко определяет "асинхронную модель параллелизма" в качестве ключевого направления, подчеркивая ее преимущества по сравнению с параллельной обработкой данных.
Поддержка сетей с низкой пропускной способностью и неконсистентных узлов;
Адаптация к гетерогенным устройствам, позволяет участвовать потребительским GPU;
Естественно обладает возможностью гибкого планирования, поддерживает частое включение/выключение узлов;
Три основных突破: сжатие структуры + асинхронное обновление + невозможность извлечения весов.
Gensyn: Децентрализация протокольного уровня обучения, управляемого проверяемым исполнением
Gensyn — это проект Web3 AI, сосредоточенный на "доверительном выполнении задач глубокого обучения". Его суть заключается не в реконструкции архитектуры модели или парадигмы обучения, а в создании проверяемой дистрибутивной сети выполнения обучения с полным процессом "распределение задач + выполнение обучения + проверка результатов + справедливая мотивация". Благодаря архитектурному дизайну, сочетающему оффлайн-обучение и онлайн-проверку, Gensyn создает эффективный, открытый и мотивирующий глобальный рынок обучения, делая "обучение равным майнингу" реальностью.
Gensyn это не "как тренировать", а инфраструктура "кем тренировать, как проверять, как делиться прибылью". Его суть заключается в протоколе проверяемых вычислений для задач обучения, который в основном решает:
Кто будет выполнять задачи по обучению (распределение вычислительной мощности и динамическое соответствие)
Как проверить результаты выполнения (без полной перерасчета, только проверить спорный оператор)
Как распределять доходы от тренировки (Stake, Slashing и механизмы многопользовательских игр)
Сеть Gensyn вводит четыре типа участников:
Податель: публикация тренировочной задачи, установка структуры и бюджета;
Решатель: выполняет учебные задания, отправляет результаты;
Verifier: Проверка поведения обучения, чтобы убедиться в его соответствии и эффективности;
Информатор: бросает вызов валидаторам, получает вознаграждение за арбитраж или несет штраф.
Механизм основан на экономическом игровом дизайне Truebit, который стимулирует участников к честному сотрудничеству и обеспечивает надежную работу сети через принудительное внесение ошибок + случайный арбитраж.
 и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
10 Лайков
Награда
10
7
Поделиться
комментарий
0/400
NftCollectors
· 13ч назад
После прочтения этой статьи я хочу сказать, что Децентрализация обучения по своей сути очень похожа на создание NFT-искусства, оба процесса исследуют новую парадигму распределения ценностей... Я уже говорил, что будущее заключается в Децентрализации, традиционные модели обучения AI явно не успевают за инновациями эпохи web3, данные в блокчейне ясно указывают на мировые тенденции, кто понимает, тот понимает.
Посмотреть ОригиналОтветить0
DegenDreamer
· 08-01 18:06
Кто заплатит за такие большие расходы на обучение?
Посмотреть ОригиналОтветить0
CoinBasedThinking
· 08-01 18:05
Снова собираются кардинально изменить архитектуру ИИ? Это всего лишь новый трюк для привлечения вычислительной мощности!
Посмотреть ОригиналОтветить0
BlindBoxVictim
· 08-01 17:58
Распределённые технологии всё равно остаются глупым сыном хозяина.
Посмотреть ОригиналОтветить0
SignatureVerifier
· 08-01 17:53
*вздыхает* еще одно централизованное узкое место, маскирующееся под инновацию... статистически обречено на провал под нагрузкой, если честно.
Посмотреть ОригиналОтветить0
MeaninglessApe
· 08-01 17:40
Откуда столько больших слов? Если не понимаешь, так и оставь.
Посмотреть ОригиналОтветить0
GasFeeLady
· 08-01 17:39
просто как плата за газ сейчас... централизованное обучение становится слишком дорогим, если честно, шевелю плечами
Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация совместной технологии.
Эволюция парадигмы обучения ИИ: от централизованного контроля к технологической революции децентрализации и сотрудничества
В полной цепочке ценностей ИИ модельное обучение является этапом с наибольшим потреблением ресурсов и самым высоким техническим порогом, что напрямую определяет пределы возможностей модели и реальные эффекты применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянных инвестиций в масштабные вычислительные мощности, сложные процессы обработки данных и высокоинтенсивную поддержку оптимизационных алгоритмов, что делает его настоящей "тяжелой промышленностью" в построении ИИ-систем. С точки зрения архитектурных парадигм методы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и Децентрализация, на которой акцентируется внимание в данной статье.
Централизованное обучение является наиболее распространенным традиционным способом, при котором единый институт завершает весь процесс обучения в локальном высокопроизводительном кластере, от аппаратного обеспечения, программного обеспечения низкого уровня, системы управления кластером до всех компонентов обучающей рамки, которые координируются единым контролирующим системом. Эта архитектура глубокой координации позволяет оптимизировать эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает её очень подходящей для обучения крупномасштабных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контроля ресурсов, но одновременно сталкиваясь с проблемами монополии данных, барьеров для ресурсов, потребления энергии и рисков единой точки.
Распределенная тренировка является основным способом тренировки больших моделей в настоящее время. Ее суть заключается в том, чтобы разбить задачи тренировки модели и распределить их между несколькими машинами для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Хотя физически она имеет "Децентрализация" характеристики, в целом она все еще контролируется и координируется централизованной организацией, часто работающей в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink, где главный узел координирует все подзадачи. Основные методы включают:
Распределенное обучение — это комбинация "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет несколькими сотрудниками из "офисов", совместно выполняющими задачи. В настоящее время почти все основные большие модели обучаются именно таким образом.
Децентрализация обучения представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевая характеристика заключается в следующем: несколько недоверяющих друг другу узлов совместно выполняют задачи обучения без центрального координатора, обычно с помощью протоколов, управляющих распределением задач и сотрудничеством, а также с использованием крипто-стимулов для обеспечения честности вклада. Основные вызовы, с которыми сталкивается эта модель, включают:
Децентрализация тренировки может пониматься как: группа глобальных волонтеров, которые совместно вносят вычислительную мощность для тренировки модели, но "действительно осуществимая масштабная децентрализация тренировки" все еще представляет собой системную инженерную задачу, охватывающую несколько аспектов, таких как системная архитектура, коммуникационные протоколы, криптобезопасность, экономические механизмы, валидация модели и т.д., однако возможность "совместной эффективности + стимуляция честности + правильные результаты" все еще находится на ранней стадии прототипирования.
Федеративное обучение, как переходная форма между распределенной и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что делает его подходящим для сцен, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными кооперативными возможностями, одновременно имея преимущества распределенных данных в Децентрализация, но по-прежнему зависит от доверенных координирующих сторон и не обладает полностью открытыми и антикоррупционными характеристиками. Его можно рассматривать как «контролируемую Децентрализация» в условиях соблюдения конфиденциальности, где задачи обучения, структура доверия и механизмы связи относительно мягкие, что делает его более подходящим в качестве переходной архитектуры для промышленного развертывания.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших трудностей в сотрудничестве, она изначально не подходит для эффективного выполнения между гетерогенными, недоверенными узлами. Например, обучение больших моделей часто зависит от высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи, связанные с конфиденциальностью данных и сильными ограничениями суверенитета, ограничены юридическими нормами и этическими ограничениями и не могут быть открыто поделены; а задачи, лишенные основ для сотрудничества, испытывают недостаток внешней мотивации для участия. Эти границы вместе составляют реальные ограничения текущего Децентрализация обучения.
Но это не означает, что Децентрализация обучения является ложным утверждением. На самом деле, в задачах с легкой структурой, высокой параллельностью и возможностью стимуляции, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: дообучение LoRA, задачи постобучения по согласованию действий, краудсорсинг данных для обучения и аннотирования, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии координационного обучения с участием периферийных устройств. Эти задачи, как правило, обладают высокой параллельностью, низкой связностью и толерантностью к гетерогенным вычислительным мощностям, что делает их очень подходящими для совместного обучения через P2P сети, протокол Swarm, распределенные оптимизаторы и другие методы.
Децентрализация тренировки классических проектов анализа
В настоящее время на переднем крае децентрализованного обучения и федеративного обучения представительные блокчейн-проекты в основном включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности инженерной реализации, Prime Intellect, Nous Research и Pluralis.ai представили множество оригинальных исследований в системной архитектуре и проектировании алгоритмов, представляя собой передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть начальный инженерный прогресс. В данной статье будут поэтапно проанализированы ключевые технологии и инженерные архитектуры, стоящие за этими пятью проектами, и далее будет обсуждено их различие и взаимодополнение в децентрализованной системе обучения ИИ.
Prime Intellect: пионер сети совместного обучения с подтверждаемыми траекториями обучения
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, чтобы любой мог участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect хочет создать децентрализованную систему обучения ИИ с возможностью верификации, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
В мае 2025 года Prime Intellect выпустил INTELLECT-2, который является первой в мире большой моделью глубокого обучения, обученной с помощью асинхронного, не требующего доверия, Децентрализация узлов. Размер параметров достигает 32B. Модель INTELLECT-2 была обучена с использованием более 100 гетерогенных узлов GPU, расположенных на трех континентах, с полностью асинхронной архитектурой и временем обучения более 400 часов, что демонстрирует осуществимость и стабильность асинхронной сети сотрудничества. Эта модель не только представляет собой прорыв в производительности, но также является первой системной реализацией парадигмы "обучение = консенсус", предложенной Prime Intellect. INTELLECT-2 интегрирует ключевые протоколы, такие как PRIME-RL (асинхронная структура обучения), TOPLOC (верификация действий обучения) и SHARDCAST (асинхронная агрегация весов), что знаменует собой первое достижение открытости, проверяемости и замкнутого экономического стимулирования в процессе обучения в Децентрализация сети.
В плане производительности INTELLECT-2 основан на QwQ-32B и прошел специализированное RL-обучение в коде и математике, находясь на переднем крае современных открытых RL-тонких настроек моделей. Хотя он еще не превосходит закрытые модели, такие как GPT-4 или Gemini, его истинное значение заключается в том, что это первая в мире полностью воспроизводимая, проверяемая и подлежащая аудиту децентрализованная модель эксперимента. Prime Intellect не только открыл исходный код модели, но что более важно, открыл сам процесс обучения - данные для обучения, траектории обновления стратегии, процессы валидации и логику агрегации полностью прозрачны и доступны для проверки, создавая прототип децентрализованной сети обучения, в которой каждый может участвовать, доверять совместной работе и делиться доходами.
Pluralis: Исследователь парадигмы совместного обучения асинхронных моделей параллельного и структурного сжатия
Pluralis — это проект Web3 AI, сосредоточенный на "доверительном совместном обучении сетей", чья основная цель — продвижение модели обучения, ориентированной на децентрализацию, открытое участие и долгосрочные механизмы стимулирования. В отличие от текущих мейнстримных централизованных или закрытых путей обучения, Pluralis предлагает совершенно новую концепцию под названием Protocol Learning (обучение по протоколу): процесс обучения модели "протоколизируется", создавая открытую обучающую систему с внутренним замкнутым контуром стимулов через проверяемые механизмы сотрудничества и отображение прав собственности на модель.
Protocol Learning, предложенный Pluralis, включает три ключевых столпа:
Pluralis четко определяет "асинхронную модель параллелизма" в качестве ключевого направления, подчеркивая ее преимущества по сравнению с параллельной обработкой данных.
Gensyn: Децентрализация протокольного уровня обучения, управляемого проверяемым исполнением
Gensyn — это проект Web3 AI, сосредоточенный на "доверительном выполнении задач глубокого обучения". Его суть заключается не в реконструкции архитектуры модели или парадигмы обучения, а в создании проверяемой дистрибутивной сети выполнения обучения с полным процессом "распределение задач + выполнение обучения + проверка результатов + справедливая мотивация". Благодаря архитектурному дизайну, сочетающему оффлайн-обучение и онлайн-проверку, Gensyn создает эффективный, открытый и мотивирующий глобальный рынок обучения, делая "обучение равным майнингу" реальностью.
Gensyn это не "как тренировать", а инфраструктура "кем тренировать, как проверять, как делиться прибылью". Его суть заключается в протоколе проверяемых вычислений для задач обучения, который в основном решает:
Сеть Gensyn вводит четыре типа участников:
Механизм основан на экономическом игровом дизайне Truebit, который стимулирует участников к честному сотрудничеству и обеспечивает надежную работу сети через принудительное внесение ошибок + случайный арбитраж.
![Эволюция парадигмы AI-тренировок: от централизованного контроля к Децентрализация совместной технологической революции](