Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация и сотрудничеству в технологической революции
В полной цепочке создания ценности AI обучение моделей является этапом с наибольшими затратами ресурсов и высокими технологическими барьерами, что напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесного вызова на этапе вывода, процесс обучения требует постоянных масштабных вычислительных мощностей, сложных процессов обработки данных и поддержки интенсивных оптимизационных алгоритмов, что является настоящей "тяжелой промышленностью" в построении AI-систем. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основным предметом обсуждения в данной статье.
Централизованное обучение является наиболее распространенным традиционным методом, в котором все процессы обучения выполняются единственным учреждением на локальном высокопроизводительном кластере, начиная от аппаратного обеспечения и программного обеспечения нижнего уровня, систем управления кластером до всех компонентов обучающей структуры, которые координируются единой контрольной системой. Эта глубокая согласованная архитектура обеспечивает максимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения масштабных моделей, таких как GPT и Gemini, обладая высокоэффективностью и контролируемыми ресурсами, но при этом имея проблемы с монополией на данные, барьерами ресурсов, потреблением энергии и риском единой точки отказа.
Распределённое обучение является основным методом обучения крупных моделей на сегодняшний день. Его суть заключается в разбиении задачи обучения модели и распределении её между несколькими машинами для совместного выполнения, чтобы преодолеть ограничения вычислительных и хранилищных ресурсов одного компьютера. Несмотря на то, что физически оно имеет "распределённые" характеристики, в целом всё ещё контролируется и координируется централизованной организацией, обычно работает в среде высокоскоростной локальной сети и использует технологию высокоскоростной межсоединительной шины NVLink для единой координации подзадач главного узла. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры делятся, необходимо сопоставить веса модели
Модельное параллелизм: размещение различных частей модели на разных узлах для достижения высокой масштабируемости;
Параллельные каналы: поэтапное последовательное выполнение, увеличение пропускной способности;
Тензорное параллелизм: детализированное разделение матричных вычислений, повышение степени параллелизма.
Распределенное обучение является комбинацией "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно руководит сотрудничеством нескольких "офисных" сотрудников для выполнения задачи. В настоящее время почти все основные большие модели обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытую и устойчивую к цензуре будущую траекторию. Его ключевыми характеристиками являются: несколько недоверительных узлов, которые совместно выполняют задачи обучения без центрального координатора, обычно с помощью протоколов для распределения задач и сотрудничества, а также с использованием криптостимулов для обеспечения честности вкладов. Основные проблемы, с которыми сталкивается эта модель, включают:
Гетерогенность устройств и трудности разделения: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач;
П瓶бек通信效率: нестабильная сетевое通信,明显梯度同步瓶颈;
Недостаток доверенного выполнения: отсутствие доверенной вычислительной среды затрудняет проверку того, действительно ли узлы участвуют в вычислениях;
Отсутствие единой координации: нет центрального диспетчера, распределение задач и механизм отката при сбоях сложны.
Децентрализация тренировки может быть понята как: группа глобальных добровольцев, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая масштабная децентрализация тренировки" все еще является системной инженерной задачей, затрагивающей системную архитектуру, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, валидацию моделей и другие аспекты, однако вопрос о том, можно ли "совместно эффективно + стимулировать честность + корректные результаты" все еще находится на стадии раннего прототипирования.
Федеративное обучение как переходная форма между распределенными и Децентрализация акцентирует внимание на локальном хранении данных и централизованной агрегации параметров модели, подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенного обучения и локальной координационной способностью, одновременно имея преимущества распределенных данных в процессе Децентрализация обучения, но по-прежнему зависит от надежной координирующей стороны и не обладает полностью открытыми и антикоррупционными характеристиками. Его можно рассматривать как "контролируемую Децентрализация" в условиях соблюдения конфиденциальности, где задания на обучение, структура доверия и механизмы связи являются относительно мягкими, что делает его более подходящим для переходной архитектуры развертывания в промышленности.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, крайне высоких требований к ресурсам или большой сложности сотрудничества, она изначально не подходит для эффективного выполнения на гетерогенных, дезавуированных узлах. Например, обучение больших моделей часто требует высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи с сильными ограничениями на конфиденциальность данных и суверенитет ограничены юридическими и этическими нормами, что делает невозможным открытое совместное использование; задачи, которые не имеют основы для сотрудничества, не имеют внешней мотивации для участия. Эти границы вместе составляют реальные ограничения для текущего Децентрализации обучения.
Но это не означает, что децентрализация обучения является ложным утверждением. На самом деле, в задачах с легкой структурой, легкостью параллелизма и возможностью стимуляции, децентрализованное обучение демонстрирует явные перспективы применения. Включая, но не ограничиваясь: микротюнинг LoRA, задачи постобучения по согласованию поведения, задачи краудсорсинга данных и аннотирования, обучение небольших базовых моделей с контролируемыми ресурсами, а также сцены кооперативного обучения с участием периферийных устройств. Эти задачи, как правило, обладают высокой параллельностью, низкой связностью и способностью терпеть гетерогенные вычислительные мощности, что делает их очень подходящими для кооперативного обучения через P2P-сети, протокол Swarm, распределенные оптимизаторы и другие способы.
Децентрализация тренировки классических проектов
На сегодняшний день в области Децентрализации обучения и федеративного обучения, представленными блокчейн-проектами являются Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области системной архитектуры и алгоритмического дизайна, представляя передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть первые шаги в инженерной прогрессии. В данной статье будут последовательно проанализированы ключевые технологии и инженерные архитектуры пяти проектов, а также дополнительно изучены их различия и взаимодополняющие отношения в системе Децентрализованного AI обучения.
Prime Intellect: проверяемая траектория обучения усилением кооперативной сети пионеров
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, в которой любой желающий может участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
Одна, структура стеков протокола Prime Intellect и ценность ключевых модулей
Два. Подробное объяснение ключевых механизмов тренировки Prime Intellect
PRIME-RL: Архитектура задач асинхронного обучения с подкреплением с декомпозицией
PRIME-RL — это фреймворк моделирования и выполнения задач, разработанный Prime Intellect для децентрализованных тренировочных сцен, специально созданный для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно разъединяя процессы обучения, вывода и загрузки весов, что позволяет каждому тренировочному узлу независимо завершать циклы задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами проверки и агрегации. По сравнению с традиционными процессами обучения с учителем, PRIME-RL лучше подходит для реализации гибкого обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки параллельных многозадачности и эволюции стратегий.
TOPLOC: Легковесный механизм верификации поведения в обучении
TOPLOC — это механизм ядра, предложенный Prime Intellect для оценки проверяемости обучения, который используется для определения того, завершил ли узел эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторных вычислений всей модели, а выполняет верификацию легковесной структуры, анализируя локальные последовательности согласованности между "наблюдательной последовательностью ↔ обновлением стратегии". Он впервые превращает траектории поведения в процессе обучения в проверяемые объекты, что является ключевым нововведением для реализации распределения вознаграждений за обучение без необходимости доверия, и предоставляет жизнеспособный путь для построения аудируемой и мотивируемой Децентрализация сети совместного обучения.
SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для асинхронных, ограниченных по пропускной способности и изменяющихся состояний узлов реальных сетевых сред. Он сочетает в себе механизмы распространения gossip и локальные синхронные стратегии, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, достигая постепенной сходимости весов и многоверсионной эволюции. В отличие от централизованных или синхронных методов AllReduce, SHARDCAST значительно повышает масштабируемость и устойчивость к сбоям децентрализованного обучения, являясь важной основой для построения стабильного консенсуса по весам и непрерывной итерации обучения.
OpenDiLoCo — это оптимизированный коммуникационный фреймворк, разработанный командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind, и открытый для использования. Он специально разработан для решения распространенных проблем, таких как ограниченная пропускная способность, гетерогенность устройств и нестабильность узлов в условиях Децентрализация обучения. Его архитектура основана на параллельной обработке данных и использует разреженные топологии, такие как Ring, Expander и Small-World, чтобы избежать высоких затрат на коммуникацию, связанных с глобальной синхронизацией, полагаясь лишь на локальных соседей для совместного обучения моделей. В сочетании с асинхронным обновлением и механизмом восстановления после сбоя, OpenDiLoCo позволяет потребительским GPU и устройствам на краю сети стабильно участвовать в задачах обучения, значительно повышая доступность глобального совместного обучения и являясь одной из ключевых коммуникационных инфраструктур для построения сети Децентрализация обучения.
PCCL:Библиотека совместной связи
PCCL — это легковесная библиотека связи, созданная Prime Intellect для децентрализованной среды обучения ИИ, призванная решить проблемы адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, является базовым компонентом, поддерживающим асинхронные коммуникации протокола OpenDiLoCo. Она значительно повышает пропускную способность сети обучения и совместимость устройств, прокладывая "последнюю милю" коммуникационной основы для построения действительно открытой, не требующей доверия сети совместного обучения.
Три. Сеть стимулов Prime Intellect и распределение ролей
Prime Intellect создал сеть обучения, которая не требует разрешения, является проверяемой и обладает экономическими стимулами, позволяя любому участвовать в задачах и получать вознаграждения на основе реального вклада. Протокол работает на основе трех основных ролей:
Инициатор задачи: определить тренировочную среду, начальную модель, функцию вознаграждения и критерии валидации
Обучающие узлы: выполнение локального обучения, отправка обновлений весов и наблюдательных траекторий
Верификационные узлы: использование механизма TOPLOC для проверки подлинности тренировочного поведения и участия в расчете вознаграждений и агрегации стратегий
Основные процессы протокола включают в себя публикацию задач, обучение узлов, верификацию траекторий, агрегацию весов и распределение вознаграждений, образуя замкнутый цикл стимулов, основанный на "реальных тренировочных действиях".
Четыре, INTELLECT-2: выпуск первой проверяемой модели децентрализованного обучения
Prime Intellect выпустил INTELLECT-2 в мае 2025 года, что является первой в мире моделью глубокого обучения, созданной с помощью асинхронного, бездоверительного Децентрализация узлов. Объем параметров составляет 32B. Модель INTELLECT-2 была обучена с использованием более 100 GPU гетерогенных узлов, расположенных на трех континентах, с полностью асинхронной архитектурой, время обучения превышает 400 часов, демонстрируя жизнеспособность и стабильность асинхронной сети. Эта модель не только является прорывом в производительности, но и является первой системной реализацией предложенной Prime Intellect парадигмы "обучение как консенсус". INTELLECT-2 интегрирует основные протоколы, такие как PRIME-RL, TOPLOC и SHARDCAST, что знаменует собой Децентрализация обучения.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
3
Поделиться
комментарий
0/400
Blockwatcher9000
· 7ч назад
Без виртуального мира, какой там AI, все равно придется влезать в издержки.
Посмотреть ОригиналОтветить0
LiquiditySurfer
· 12ч назад
Майнинг, братцы, наконец-то есть немного надежды.
Посмотреть ОригиналОтветить0
ApeShotFirst
· 12ч назад
Снова говорят о Децентрализации революции. Что так спешите?
Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация совместной технологии революции
Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация и сотрудничеству в технологической революции
В полной цепочке создания ценности AI обучение моделей является этапом с наибольшими затратами ресурсов и высокими технологическими барьерами, что напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесного вызова на этапе вывода, процесс обучения требует постоянных масштабных вычислительных мощностей, сложных процессов обработки данных и поддержки интенсивных оптимизационных алгоритмов, что является настоящей "тяжелой промышленностью" в построении AI-систем. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основным предметом обсуждения в данной статье.
Централизованное обучение является наиболее распространенным традиционным методом, в котором все процессы обучения выполняются единственным учреждением на локальном высокопроизводительном кластере, начиная от аппаратного обеспечения и программного обеспечения нижнего уровня, систем управления кластером до всех компонентов обучающей структуры, которые координируются единой контрольной системой. Эта глубокая согласованная архитектура обеспечивает максимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения масштабных моделей, таких как GPT и Gemini, обладая высокоэффективностью и контролируемыми ресурсами, но при этом имея проблемы с монополией на данные, барьерами ресурсов, потреблением энергии и риском единой точки отказа.
Распределённое обучение является основным методом обучения крупных моделей на сегодняшний день. Его суть заключается в разбиении задачи обучения модели и распределении её между несколькими машинами для совместного выполнения, чтобы преодолеть ограничения вычислительных и хранилищных ресурсов одного компьютера. Несмотря на то, что физически оно имеет "распределённые" характеристики, в целом всё ещё контролируется и координируется централизованной организацией, обычно работает в среде высокоскоростной локальной сети и использует технологию высокоскоростной межсоединительной шины NVLink для единой координации подзадач главного узла. Основные методы включают:
Распределенное обучение является комбинацией "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно руководит сотрудничеством нескольких "офисных" сотрудников для выполнения задачи. В настоящее время почти все основные большие модели обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытую и устойчивую к цензуре будущую траекторию. Его ключевыми характеристиками являются: несколько недоверительных узлов, которые совместно выполняют задачи обучения без центрального координатора, обычно с помощью протоколов для распределения задач и сотрудничества, а также с использованием криптостимулов для обеспечения честности вкладов. Основные проблемы, с которыми сталкивается эта модель, включают:
Децентрализация тренировки может быть понята как: группа глобальных добровольцев, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая масштабная децентрализация тренировки" все еще является системной инженерной задачей, затрагивающей системную архитектуру, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, валидацию моделей и другие аспекты, однако вопрос о том, можно ли "совместно эффективно + стимулировать честность + корректные результаты" все еще находится на стадии раннего прототипирования.
Федеративное обучение как переходная форма между распределенными и Децентрализация акцентирует внимание на локальном хранении данных и централизованной агрегации параметров модели, подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенного обучения и локальной координационной способностью, одновременно имея преимущества распределенных данных в процессе Децентрализация обучения, но по-прежнему зависит от надежной координирующей стороны и не обладает полностью открытыми и антикоррупционными характеристиками. Его можно рассматривать как "контролируемую Децентрализация" в условиях соблюдения конфиденциальности, где задания на обучение, структура доверия и механизмы связи являются относительно мягкими, что делает его более подходящим для переходной архитектуры развертывания в промышленности.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, крайне высоких требований к ресурсам или большой сложности сотрудничества, она изначально не подходит для эффективного выполнения на гетерогенных, дезавуированных узлах. Например, обучение больших моделей часто требует высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи с сильными ограничениями на конфиденциальность данных и суверенитет ограничены юридическими и этическими нормами, что делает невозможным открытое совместное использование; задачи, которые не имеют основы для сотрудничества, не имеют внешней мотивации для участия. Эти границы вместе составляют реальные ограничения для текущего Децентрализации обучения.
Но это не означает, что децентрализация обучения является ложным утверждением. На самом деле, в задачах с легкой структурой, легкостью параллелизма и возможностью стимуляции, децентрализованное обучение демонстрирует явные перспективы применения. Включая, но не ограничиваясь: микротюнинг LoRA, задачи постобучения по согласованию поведения, задачи краудсорсинга данных и аннотирования, обучение небольших базовых моделей с контролируемыми ресурсами, а также сцены кооперативного обучения с участием периферийных устройств. Эти задачи, как правило, обладают высокой параллельностью, низкой связностью и способностью терпеть гетерогенные вычислительные мощности, что делает их очень подходящими для кооперативного обучения через P2P-сети, протокол Swarm, распределенные оптимизаторы и другие способы.
Децентрализация тренировки классических проектов
На сегодняшний день в области Децентрализации обучения и федеративного обучения, представленными блокчейн-проектами являются Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области системной архитектуры и алгоритмического дизайна, представляя передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть первые шаги в инженерной прогрессии. В данной статье будут последовательно проанализированы ключевые технологии и инженерные архитектуры пяти проектов, а также дополнительно изучены их различия и взаимодополняющие отношения в системе Децентрализованного AI обучения.
Prime Intellect: проверяемая траектория обучения усилением кооперативной сети пионеров
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, в которой любой желающий может участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
Одна, структура стеков протокола Prime Intellect и ценность ключевых модулей
Два. Подробное объяснение ключевых механизмов тренировки Prime Intellect
PRIME-RL: Архитектура задач асинхронного обучения с подкреплением с декомпозицией
PRIME-RL — это фреймворк моделирования и выполнения задач, разработанный Prime Intellect для децентрализованных тренировочных сцен, специально созданный для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно разъединяя процессы обучения, вывода и загрузки весов, что позволяет каждому тренировочному узлу независимо завершать циклы задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами проверки и агрегации. По сравнению с традиционными процессами обучения с учителем, PRIME-RL лучше подходит для реализации гибкого обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки параллельных многозадачности и эволюции стратегий.
TOPLOC: Легковесный механизм верификации поведения в обучении
TOPLOC — это механизм ядра, предложенный Prime Intellect для оценки проверяемости обучения, который используется для определения того, завершил ли узел эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторных вычислений всей модели, а выполняет верификацию легковесной структуры, анализируя локальные последовательности согласованности между "наблюдательной последовательностью ↔ обновлением стратегии". Он впервые превращает траектории поведения в процессе обучения в проверяемые объекты, что является ключевым нововведением для реализации распределения вознаграждений за обучение без необходимости доверия, и предоставляет жизнеспособный путь для построения аудируемой и мотивируемой Децентрализация сети совместного обучения.
SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для асинхронных, ограниченных по пропускной способности и изменяющихся состояний узлов реальных сетевых сред. Он сочетает в себе механизмы распространения gossip и локальные синхронные стратегии, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, достигая постепенной сходимости весов и многоверсионной эволюции. В отличие от централизованных или синхронных методов AllReduce, SHARDCAST значительно повышает масштабируемость и устойчивость к сбоям децентрализованного обучения, являясь важной основой для построения стабильного консенсуса по весам и непрерывной итерации обучения.
OpenDiLoCo: Разреженная асинхронная коммуникационная рамка
OpenDiLoCo — это оптимизированный коммуникационный фреймворк, разработанный командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind, и открытый для использования. Он специально разработан для решения распространенных проблем, таких как ограниченная пропускная способность, гетерогенность устройств и нестабильность узлов в условиях Децентрализация обучения. Его архитектура основана на параллельной обработке данных и использует разреженные топологии, такие как Ring, Expander и Small-World, чтобы избежать высоких затрат на коммуникацию, связанных с глобальной синхронизацией, полагаясь лишь на локальных соседей для совместного обучения моделей. В сочетании с асинхронным обновлением и механизмом восстановления после сбоя, OpenDiLoCo позволяет потребительским GPU и устройствам на краю сети стабильно участвовать в задачах обучения, значительно повышая доступность глобального совместного обучения и являясь одной из ключевых коммуникационных инфраструктур для построения сети Децентрализация обучения.
PCCL:Библиотека совместной связи
PCCL — это легковесная библиотека связи, созданная Prime Intellect для децентрализованной среды обучения ИИ, призванная решить проблемы адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, является базовым компонентом, поддерживающим асинхронные коммуникации протокола OpenDiLoCo. Она значительно повышает пропускную способность сети обучения и совместимость устройств, прокладывая "последнюю милю" коммуникационной основы для построения действительно открытой, не требующей доверия сети совместного обучения.
Три. Сеть стимулов Prime Intellect и распределение ролей
Prime Intellect создал сеть обучения, которая не требует разрешения, является проверяемой и обладает экономическими стимулами, позволяя любому участвовать в задачах и получать вознаграждения на основе реального вклада. Протокол работает на основе трех основных ролей:
Основные процессы протокола включают в себя публикацию задач, обучение узлов, верификацию траекторий, агрегацию весов и распределение вознаграждений, образуя замкнутый цикл стимулов, основанный на "реальных тренировочных действиях".
Четыре, INTELLECT-2: выпуск первой проверяемой модели децентрализованного обучения
Prime Intellect выпустил INTELLECT-2 в мае 2025 года, что является первой в мире моделью глубокого обучения, созданной с помощью асинхронного, бездоверительного Децентрализация узлов. Объем параметров составляет 32B. Модель INTELLECT-2 была обучена с использованием более 100 GPU гетерогенных узлов, расположенных на трех континентах, с полностью асинхронной архитектурой, время обучения превышает 400 часов, демонстрируя жизнеспособность и стабильность асинхронной сети. Эта модель не только является прорывом в производительности, но и является первой системной реализацией предложенной Prime Intellect парадигмы "обучение как консенсус". INTELLECT-2 интегрирует основные протоколы, такие как PRIME-RL, TOPLOC и SHARDCAST, что знаменует собой Децентрализация обучения.