OpenLedger создает новое поколение AI-цепей для построения экономики интеллектуальных агентов, основанной на данных.

OpenLedger Глубина исследования: на основе OP Stack + EigenDA создать экономику интеллектуальных агентов, управляемую данными и моделью.

Один. Введение | Переход модельного слоя Crypto AI

Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель), энергии (вычислительная мощность) без которых не обойтись. Подобно эволюции инфраструктуры традиционной индустрии ИИ, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок в какой-то момент был поделен между децентрализованными проектами GPU, такими как (Akash, Render, io.net и другими ), которые в основном подчеркивали логику грубого роста "склеивания вычислительной мощности". Однако с 2025 года внимание индустрии постепенно смещается в сторону моделей и уровня данных, что знаменует собой переход Crypto AI от конкуренции за ресурсы к более устойчивой и ценной с точки зрения применения средней конструкции.

Универсальная модель (LLM) против специализированной модели (SLM)

Традиционные крупномасштабные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры, а объем параметров составляет от 70B до 500B, стоимость одной тренировки часто достигает нескольких миллионов долларов. SLM (Специализированная языковая модель) как легковесная парадигма тонкой настройки переиспользуемой базовой модели, обычно основана на открытых моделях, таких как LLaMA, Mistral, DeepSeek и т.д., в сочетании с небольшим количеством высококачественных профессиональных данных и технологиями, такими как LoRA, быстро создает экспертные модели, обладающие знаниями в конкретной области, значительно снижая затраты на обучение и технические барьеры.

Следует отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM с помощью архитектуры Agent, динамической маршрутизации через систему плагинов, горячей замены модулей LoRA и RAG (усиленная генерация при помощи поиска). Эта архитектура сохраняет широкие возможности LLM и усиливает профессиональные показатели через модули тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.

Ценность и границы Crypto AI на уровне моделей

Проекты Crypto AI по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина в том, что

  • Слишком высокая техническая планка: объем данных, вычислительные ресурсы и инженерные способности, необходимые для обучения Foundation Model, крайне велики, и в настоящее время только некоторые технологические гиганты обладают соответствующими возможностями.
  • Ограничения открытой экосистемы: хотя основные модели, такие как LLaMA и Mixtral, были открыты, ключ к реальному прорыву моделей все еще сосредоточен в научных учреждениях и закрытых инженерных системах, и участие цепочных проектов на уровне основных моделей ограничено.

Однако, на основе открытых базовых моделей, проекты Crypto AI все еще могут осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с верифицируемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" в цепочке индустрии ИИ, это проявляется в двух основных направлениях:

  • Доверенный уровень верификации: через ончейн запись пути генерации модели, данные о вкладе и использовании, усиливается прослеживаемость и защита от подделки AI-выводов.
  • Механизм стимулов: с помощью родного токена для стимулирования загрузки данных, вызова моделей, выполнения агентов (Agent) и других действий, создание позитивного цикла обучения моделей и обслуживания.

Классификация типов моделей ИИ и анализ применимости блокчейна

Таким образом, видно, что жизнеспособные направления для проектов Crypto AI на основе моделей в основном сосредоточены на легкой настройке небольших SLM, интеграции и верификации данных на блокчейне с архитектурой RAG, а также локальном развертывании и стимулировании моделей Edge. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих сценариев моделей со средними и низкими ресурсами, создавая дифференцированную ценность "интерфейсного слоя" AI.

Блокчейн AI цепь на основе данных и моделей может обеспечить четкое, неизменяемое запись источников вклада каждой отдельной данных и модели в цепи, значительно повышая доверие к данным и прослеживаемость обучения модели. В то же время, через механизм смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая действия AI в измеримую, торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, участники сообщества могут оценивать производительность модели, участвовать в разработке правил и итерациях через голосование за токены, улучшая архитектуру децентрализованного управления.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, обзор проекта | Визия AI цепи OpenLedger

OpenLedger является одним из немногих блокчейн-AI проектов на текущем рынке, который сосредоточен на данных и моделях механизмов стимулов. Он первым предложил концепцию "Payable AI", с целью создания справедливой, прозрачной и компонуемой среды для работы AI, стимулируя вкладчиков данных, разработчиков моделей и создателей AI приложений сотрудничать на одной платформе и получать цепочные доходы в зависимости от фактического вклада.

OpenLedger предоставляет полный замкнутый цикл от "предоставления данных" до "развертывания модели" и "вызова распределения прибыли", его ключевые модули включают:

  • Модельный завод: без программирования можно использовать LoRA для тонкой настройки, обучения и развертывания настраиваемых моделей на основе открытого LLM;
  • OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
  • PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений осуществляется через записи вызовов в блокчейне;
  • Datanets: структурированные сетевые данные для вертикальных сценариев, созданные и проверенные сообществом;
  • Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.

С помощью вышеуказанных модулей OpenLedger построила "инфраструктуру экономики агентов", основанную на данных и моделях, что способствует ончейн-реализации цепочки создания стоимости ИИ.

А в применении технологии блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для выполнения данных и контрактов для моделей ИИ.

  • Построено на OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
  • Расчеты на основной сети Ethereum: обеспечение безопасности транзакций и целостности активов;
  • EVM совместимость: удобно для разработчиков быстро развертывать и расширять на основе Solidity;
  • EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.

В отличие от NEAR, который более ориентирован на нижний уровень и акцентирует внимание на суверенитете данных и архитектуре "AI Agents on BOS", OpenLedger больше сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь сделать разработку и использование моделей на цепочке осуществимыми с возможностью отслеживания, комбинирования и устойчивой ценности. Это инфраструктура стимулирования моделей в мире Web3, которая сочетает в себе хостинг моделей в стиле HuggingFace, биллинг за использование в стиле Stripe и совместимые интерфейсы на цепочке в стиле Infura, продвигая путь реализации "модели как актива".

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)

Три, основные компоненты и техническая архитектура OpenLedger

3.1 Модель Фабрика,无需代码模型工厂

ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает чисто графический интерфейс без необходимости использования командной строки или интеграции API. Пользователи могут дообучать модели на основе данных, прошедших авторизацию и проверку в OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, основной процесс которого включает:

  • Контроль доступа к данным: Пользователь отправляет запрос на данные, провайдер проверяет и утверждает, данные автоматически подключаются к интерфейсу обучения модели.
  • Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
  • Легкая настройка: встроенный движок LoRA / QLoRA, демонстрирующий процесс обучения в реальном времени.
  • Оценка и развертывание модели: встроенные инструменты оценки, поддержка экспорта для развертывания или совместного использования экосистемы.
  • Интерфейс проверки взаимодействия: предоставляет чат-интерфейс, удобный для прямого тестирования способности модели к вопросам и ответам.
  • Генерация RAG для отслеживания: Ответы с указанием источника, повышающие доверие и аудируемость.

Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, управление данными, тонкую настройку моделей, оценку, развертывание и трассировку RAG, создавая безопасную, контролируемую, интерактивную и устойчивую платформу для модели сервисов.

Краткая таблица возможностей крупных языковых моделей, поддерживаемых ModelFactory, выглядит следующим образом:

  • Серия LLaMA: самая широкая экосистема, активное сообщество, высокая универсальная производительность, является одной из самых популярных открытых базовых моделей на сегодняшний день.
  • Mistral: Архитектура эффективная, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
  • Qwen: Продукт от Alibaba, показывает отличные результаты в китайских задачах, обладает сильными综合能力, подходит для отечественных разработчиков в первую очередь.
  • ChatGLM: выдающееся качество диалога на китайском языке, подходит для специализированного обслуживания клиентов и локализованных сценариев.
  • Deepseek: Обладает превосходными показателями в генерации кода и математическом выводе, подходит для инструментов поддержки интеллектуальной разработки.
  • Gemma:Легкая модель, запущенная Google, с четкой структурой, которая легко осваивается и позволяет проводить эксперименты.
  • Falcon:Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
  • BLOOM: поддержка нескольких языков довольно сильная, но производительность вывода слабая, подходит для исследований, охватывающих языки.
  • GPT-2: классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для фактического развертывания.

Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на "практическом приоритете", который сделан с учетом реальных ограничений развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).

Model Factory как инструмент без кода, все модели встроены в механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, имеет низкий порог входа, возможность монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:

  • Для разработчиков: предоставление полного пути для инкубации моделей, распространения и дохода;
  • Для платформы: формирование модели обращения активов и комбинированной экосистемы;
  • Для пользователей: можно комбинировать модели или агенты так же, как при вызове API.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, активизация ончейн-активов модели дообучения

LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет изучать новые задачи, вставляя "низкоранговые матрицы" в предобученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Чтобы использовать их для конкретных задач (таких как юридические вопросы и медицинские консультации), необходимо провести тонкую настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: "заморозить параметры оригинальной большой модели и обучать только вставленные новые матричные параметры." Это обеспечивает высокую эффективность параметров, быструю тренировку и гибкое развертывание, что делает его основным методом тонкой настройки, наиболее подходящим для развертывания и комбинированного вызова моделей Web3.

OpenLoRA — это легковесная фреймворк для вывода, разработанная OpenLedger, специально предназначенная для развертывания множества моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем развертывания AI моделей, таких как высокая стоимость, низкая повторная используемость и расточительство ресурсов GPU, способствуя реализации "оплачиваемого ИИ" (Payable AI).

Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает такие ключевые этапы, как хранение моделей, выполнение выводов, маршрутизация запросов и т.д., обеспечивая эффективное и низкозатратное развертывание и вызов нескольких моделей:

  • Модуль хранения адаптеров LoRA (LoRA Adapters Storage): доработанные адаптеры LoRA размещаются на OpenLedger, что позволяет загружать их по мере необходимости, избегая предзагрузки всех моделей в видеопамять, что экономит ресурсы.
  • Моделирование хостинга и динамический слой слияния (Model Hosting & Adapter Merging Layer): все дообученные модели используют общую базовую модель (base model), во время вывода LoRA адаптер динамически объединяется, поддерживает совместный вывод нескольких адаптеров (ensemble), улучшая производительность.
  • Инференс-движок (Inference Engine): интегрирует множество технологий оптимизации CUDA, таких как Flash-Attention, Paged-Attention и оптимизация SGMV.
  • Запрос маршрутизации и модуль потокового вывода (Request Router & Token Streaming): Динамическая маршрутизация к правильному адаптеру в зависимости от модели, необходимой в запросе, с помощью оптимизации ядра для достижения потоковой генерации на уровне токенов.

Процесс вывода OpenLoRA относится к техническому уровню "взрослых универсальных" моделей обслуживания, как показано ниже:

  • Загрузка базовой модели: система предварительно загружает такие основы, как LLaMA 3, Mistral и др.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Поделиться
комментарий
0/400
WalletDetectivevip
· 14ч назад
в этой статье говорится о городских пустословиях
Посмотреть ОригиналОтветить0
rugpull_survivorvip
· 14ч назад
Не притворяйся, это всего лишь торговля токенами вычислительной мощности.
Посмотреть ОригиналОтветить0
AirdropFatiguevip
· 14ч назад
Снова внедряются новые концепции, отговаривающие новичков
Посмотреть ОригиналОтветить0
OnchainDetectivevip
· 15ч назад
Снова пришла модель экономики yy
Посмотреть ОригиналОтветить0
YieldChaservip
· 15ч назад
Что может сделать этот интеллект прозрачно?
Посмотреть ОригиналОтветить0
  • Закрепить