OpenLedger створює нове покоління AI-ланцюга, будує економіку інтелектуальних агентів на основі даних

OpenLedger Глибина дослідження: на основі OP Stack + EigenDA побудувати економіку агентів, що керується даними та модульними моделями

Один. Вступ | Перехід моделі Crypto AI

Дані, моделі та обчислювальні потужності є трьома основними елементами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі) та енергії (обчислювальні потужності), жоден з яких не може бути відсутнім. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через схожі етапи. На початку 2024 року ринок був під контролем децентралізованих GPU проектів, таких як (Akash, Render, io.net тощо ), які загалом підкреслювали "конкуренцію за обчислювальні потужності" в умовах грубої експансії. А з початком 2025 року увага в галузі поступово зосереджується на моделях і рівні даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного для додатків середнього рівня.

Загальний великий модель (LLM) vs Спеціалізована модель (SLM)

Традиційні великі мовні моделі (LLM) сильно залежать від великих наборів даних і складних розподілених архітектур, обсяг параметрів коливається від 70B до 500B, а вартість одного навчання часто досягає кількох мільйонів доларів. SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки повторно використовуваної базової моделі, зазвичай базується на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість якісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі з специфічними знаннями в певній області, що значно знижує витрати на навчання та технічні бар'єри.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру агентів, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування на основі запитів) та інші способи. Ця архітектура зберігає широку охоплюючу здатність LLM, а також посилює професійні показники через модулі тонкої налаштування, формуючи високо гнучку комбіновану інтелектуальну систему.

Цінність та межі Crypto AI на рівні моделей

Крипто AI проекти в основному важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина в тому, що

  • Технологічний бар'єр занадто високий: обсяги даних, необхідні для навчання Foundation Model, а також ресурси обчислювальної потужності та інженерні можливості є надзвичайно великими, на даний момент лише деякі технологічні гіганти мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні моделі, такі як LLaMA, Mixtral, були відкриті, справжній прорив моделей все ще зосереджений на науково-дослідних установах та закритих інженерних системах, а участь проектів на ланцюгу в основному моделі обмежена.

Однак, на основі відкритих базових моделей, проекти Crypto AI все ще можуть здійснювати розширення вартості через тонке налаштування спеціалізованих мовних моделей (SLM) та поєднання з верифікацією та механізмами стимулювання Web3. Як "окружний інтерфейсний шар" AI-індустрії, це проявляється у двох основних напрямках:

  • Достовірний верифікаційний рівень: шляхом запису в ланцюзі моделі генерування, внесків даних та їх використання, підвищує відстежуваність та стійкість до підробки виходу ШІ.
  • Механізм стимулювання: за допомогою рідного токена, що використовується для стимулювання завантаження даних, виклику моделей, виконання агентами (Agent) та інших дій, створення позитивного циклу навчання моделей та надання послуг.

Класифікація типів AI моделей та аналіз їх придатності для блокчейну

Отже, модельні проекти класу Crypto AI можуть бути реалізовані переважно в легкій налаштуванні малих SLM, інтеграції та верифікації даних на основі архітектури RAG, а також в локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевірність блокчейну з токеномікою, Crypto може надати унікальну цінність для цих сцен з середніми та низькими ресурсами, формуючи диференційовану цінність "інтерфейсного шару" AI.

Блокчейн AI-ланцюг, заснований на даних і моделях, може чітко та незмінно фіксувати джерела внесків кожної окремої даної та моделі, що значно підвищує довіру до даних і відстежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, автоматично запускається розподіл винагород, коли дані або моделі використовуються, перетворюючи поведінку AI на вимірювану та торгівельну токенізовану цінність, створюючи стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей за допомогою голосування токенами, брати участь у розробці та ітерації правил, вдосконалюючи децентралізовану структуру управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, огляд проекту | Візія AI-ланцюга OpenLedger

OpenLedger є одним із небагатьох блокчейн-AI проектів на ринку, які зосереджуються на механізмах стимулювання даних та моделей. Він першим запропонував концепцію "Payable AI", що має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, яке стимулює учасників, що вносять дані, розробників моделей та будівельників AI-додатків, співпрацювати на одній платформі та отримувати дохід в мережі на основі фактичного внеску.

OpenLedger надає повний ланцюг замкнутого циклу від "надання даних" до "розгортання моделі" і до "виклику розподілу прибутку", його основні модулі включають:

  • Модельна фабрика: без програмування можна використовувати LoRA для тонкої настройки, тренування та розгортання персоналізованих моделей на основі відкритих LLM;
  • OpenLoRA: підтримує спільне існування тисячі моделей, динамічне завантаження за потребою, значно знижує витрати на розгортання;
  • PoA (Proof of Attribution): через запис на ланцюзі реалізується вимірювання внеску та розподіл винагород;
  • Datanets: структуровані мережі даних, орієнтовані на вертикальні сценарії, які будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбіновані, викликаються, платіжні ринкові моделі на блокчейні.

Через вищезазначені модулі OpenLedger побудував "інфраструктуру економіки агентів", що базується на даних та може комбінувати моделі, сприяючи онлайнізації ціннісного ланцюга AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу для створення високопродуктивного, низькозатратного та перевіряємого середовища для виконання даних і контрактів для AI моделей.

  • Побудовано на OP Stack: на основі технологічного стеку Optimism, що підтримує високу пропускну здатність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: Забезпечення безпеки трансакцій та цілісності активів;
  • Сумісність з EVM: полегшує розробникам швидке розгортання та розширення на базі Solidity;
  • EigenDA надає підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечує перевірність даних.

У порівнянні з NEAR, яка є більш нижньосистемною та орієнтована на суверенітет даних та архітектуру "AI Agents on BOS", OpenLedger більше зосереджується на створенні спеціалізованого блокчейну для AI, орієнтованого на дані та моделі винагороди. Його мета полягає в тому, щоб реалізувати простежуваність, комбінованість та стійкість створення та виклику моделей на блокчейні. Це інфраструктура для стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей у стилі HuggingFace, виставлення рахунків за використання в стилі Stripe та комбіновані інтерфейси на блокчейні у стилі Infura, що сприяє реалізації концепції "модель як актив".

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Три, основні компоненти та технологічна архітектура OpenLedger

3.1 Модельний завод, не потрібно кодувати модельний завод

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory забезпечує чисто графічний інтерфейс для роботи, без необхідності у командному рядку або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які пройшли авторизацію та перевірку в OpenLedger. Це реалізує інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: Підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що в реальному часі демонструє хід навчання.
  • Оцінка та впровадження моделей: Вбудовані інструменти оцінки, підтримка експорту впровадження або спільного використання в екосистемі.
  • Інтерфейс верифікації: надає чат-інтерфейс, що спрощує безпосереднє тестування можливостей запитання-відповіді моделі.
  • Генерація RAG для трасування: відповіді містять посилання на джерела, підвищуючи довіру та можливість аудиту.

Система архітектури Model Factory складається з шести основних модулів, які охоплюють автентифікацію особи, управління даними, тонке налаштування моделей, оцінку та розгортання, а також RAG трасування, створюючи безпечну, контрольовану, інтерактивну в реальному часі та сталу платформу для надання послуг моделей.

МодельFactory наразі підтримує такі можливості великих мовних моделей:

  • Серія LLaMA: найширша екосистема, активна спільнота, загальна продуктивність висока, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: Виробництво Alibaba, відмінні результати в китайських завданнях, сильні комплексні можливості, підходить для вибору вітчизняних розробників.
  • ChatGLM: Видатні результати розмов китайською мовою, підходить для нішевих клієнтських послуг та локалізованих сценаріїв.
  • Deepseek:показує переваги в генеруванні коду та математичному міркуванні, підходить для інструментів підтримки розумної розробки.
  • Gemma: легка модель, випущена Google, з чіткою структурою, що дозволяє швидко розпочати роботу та експериментувати.
  • Falcon: Раніше був еталоном продуктивності, підходить для базових досліджень або порівняльного тестування, але активність спільноти знизилася.
  • BLOOM: Підтримка багатьох мов досить сильна, але продуктивність висновків є слабкою, підходить для досліджень, що охоплюють мови.
  • GPT-2: класична рання модель, підходить лише для навчання та перевірки, не рекомендується для фактичного розгортання.

Хоча модельна комбінація OpenLedger не містить найновіших високопродуктивних моделей MoE або мультимодальних моделей, її стратегія не застаріла, а скоріше є "практичною перевагою", що ґрунтується на реальних обмеженнях, пов'язаних із розгортанням в мережі (витрати на висновок, адаптація RAG, сумісність LoRA, середовище EVM).

Model Factory як безкодова інструментальна ланцюг, всі моделі мають вбудований механізм підтвердження внесків, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінованість, в порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: забезпечення повного шляху для інкубації, розповсюдження та доходу моделей;
  • Для платформи: формування моделі обігу активів та комбінованої екосистеми;
  • Для користувачів: моделі або агенти можуть бути комбіновані, як виклик API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, активізація ончейн-активів моделі з тонкої настройки

LoRA (Low-Rank Adaptation) є ефективним методом тонкого налаштування параметрів, що дозволяє навчитися новим завданням, вставляючи "низькорозмірні матриці" в попередньо навчану велику модель, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів, а то й сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як правові запитання, медичні консультації), потрібно провести тонке налаштування. Основна стратегія LoRA: "заморозити параметри оригінальної великої моделі, навчати лише нові матриці параметрів, які були вставлені." Її параметри є ефективними, навчання проходить швидко, а розгортання гнучке, що робить її найбільш підходящим сучасним методом тонкого налаштування для розгортання моделей Web3 та комбінованих викликів.

OpenLoRA є легковаговою інфраструктурою для висновків, розробленою OpenLedger, яка спеціально призначена для розгортання кількох моделей і спільного використання ресурсів. Її основна мета полягає в тому, щоб вирішити поширені проблеми високих витрат, низької повторної використання та витрат GPU, що виникають під час розгортання AI моделей, а також сприяти реалізації "платного AI" (Payable AI).

Основні компоненти архітектури системи OpenLoRA, засновані на модульному дизайні, охоплюють ключові етапи зберігання моделей, виконання висновків, маршрутизації запитів тощо, забезпечуючи ефективні та економічні можливості для розгортання та виклику багатих моделей:

  • Модуль зберігання LoRA Adapter (LoRA Adapters Storage): Налаштований LoRA адаптер зберігається на OpenLedger, що дозволяє завантажувати його за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять та економлячи ресурси.
  • Модуль хостингу моделей та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з підгонкою спільно використовують базову велику модель (base model), під час інференсу LoRA адаптер динамічно об'єднується, підтримує спільний інференс кількох адаптерів (ensemble), підвищуючи продуктивність.
  • Інферентний двигун (Inference Engine): інтегрує кілька технологій оптимізації CUDA, таких як Flash-Attention, Paged-Attention, SGMV оптимізація тощо.
  • Запит маршрутизації та модуль потокового виводу (Request Router & Token Streaming): Динамічна маршрутизація до правильного адаптера на основі моделі, необхідної в запиті, шляхом оптимізації ядра для реалізації потокового генерування на рівні токенів.

Процес інференції OpenLoRA є "зрілою універсальною" моделлю сервісу на технічному рівні, як показано далі:

  • Завантаження базової моделі: система попередньо завантажує базові моделі, такі як LLaMA 3, Mistral тощо
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
WalletDetectivevip
· 14год тому
в цій статті йдеться про урбаністичні порожні слова
Переглянути оригіналвідповісти на0
rugpull_survivorvip
· 14год тому
Не прикидайся, це всього лише торгівля токенами обчислювальної потужності.
Переглянути оригіналвідповісти на0
AirdropFatiguevip
· 14год тому
Знову впроваджують нову концепцію, відмовляючи новачків.
Переглянути оригіналвідповісти на0
OnchainDetectivevip
· 15год тому
Знову прийшла економіка моделей yy
Переглянути оригіналвідповісти на0
YieldChaservip
· 15год тому
Цей агент може прозоро що робити?
Переглянути оригіналвідповісти на0
  • Закріпити