従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B〜500Bに達し、1回の訓練コストは数百万ドルに上ることが一般的です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野知識を持つ専門モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に削減します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
NEARのようなより基盤的でデータ主権を重視した"AI Agents on BOS"アーキテクチャを持つ汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの利用課金、Infuraスタイルのオンチェーンコンバイナブルインターフェースを組み合わせて、"モデルは資産である"という実現への道を推進します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、マネタイズ可能、コンポーザブルといった利点を持ち、従来のモデル開発ツールと比較して:
開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供します;
プラットフォームに対して:モデル資産の流通とエコシステムの組み合わせを形成する;
アプリケーション利用者向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
OpenLedgerが新しい世代のAIチェーンを構築し、データ駆動型インテリジェントエコノミーを実現します。
OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルが組み合わせ可能なエージェント経済を構築する
一、引言 | Crypto AI のモデルレイヤーの飛躍
データ、モデルとデプスはAIインフラストラクチャの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(デプス)が欠かせない。従来のAI業界のインフラの進化パスに似て、Crypto AI分野も同様の段階を経てきた。2024年初頭、マーケットは一時的に分散型GPUプロジェクトに支配され(Akash、Render、io.netなど)、一般的に「算力を組み合わせる」という粗放型の成長ロジックを強調していた。しかし2025年に入ると、業界の関心は次第にモデルとデータ層に移行し、Crypto AIが基盤リソースの競争から持続可能で応用価値のある中間構築へと移行していることを示している。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B〜500Bに達し、1回の訓練コストは数百万ドルに上ることが一般的です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野知識を持つ専門モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に削減します。
注意すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットスワップ、RAG(リトリーバル強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャは、LLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーションインテリジェンスシステムを形成しています。
Crypto AI のモデル層における価値と境界
Crypto AIプロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しく、その核心的な理由は
しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは精緻な特化言語モデル(SLM)を通じて、Web3の検証可能性とインセンティブメカニズムを組み合わせて価値の延長を実現することができます。AI産業チェーンの「周辺インターフェース層」として、2つの核心的な方向に反映されています:
AI モデルタイプ分類と ブロックチェーン適用性分析
これにより、モデルタイプのCrypto AIプロジェクトの実行可能な落ち着きは、主に小型SLMの軽量化微調整、RAGアーキテクチャのオンチェーンデータ接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AIの「インターフェース層」の差別化された価値を形成することができます。
データとモデルに基づくブロックチェーンAIチェーンは、各データとモデルの貢献元を明確かつ改ざん不可能な形でブロックチェーンに記録することができ、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。また、スマートコントラクト機構を通じて、データまたはモデルが呼び出される際に自動的に報酬配布がトリガーされ、AIの行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定や改訂に参加し、分散型ガバナンス構造を完善することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン
OpenLedgerは現在市場に存在する数少ないデータとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」という概念を初めて提唱し、公平で透明かつ組み合わせ可能なAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーションの構築者が同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の利益を得ることを奨励します。
OpenLedgerは、「データ提供」から「モデルデプロイメント」、さらには「呼び出し分配」までの全チェーンのクローズドループを提供し、そのコアモジュールには次のものが含まれます:
上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な"スマートエージェント経済インフラ"を構築し、AIバリューチェーンのオンチェーン化を促進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。
NEARのようなより基盤的でデータ主権を重視した"AI Agents on BOS"アーキテクチャを持つ汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、HuggingFaceスタイルのモデルホスティング、Stripeスタイルの利用課金、Infuraスタイルのオンチェーンコンバイナブルインターフェースを組み合わせて、"モデルは資産である"という実現への道を推進します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要モデルファクトリー
ModelFactoryはOpenLedgerエコシステムの下にある大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合は不要です。ユーザーはOpenLedger上で完了した承認と審査のデータセットに基づいてモデルを微調整できます。データの承認、モデルの訓練、そしてデプロイメントの統合ワークフローを実現しており、その核心プロセスには以下が含まれます:
Model Factoryシステムアーキテクチャは、6つの主要モジュールを含み、アイデンティティ認証、データ権限、モデルの微調整、評価デプロイメント、RAGトレーサビリティを通じて、安全で制御可能、リアルタイムインタラクション、持続可能な収益化の統合モデルサービスプラットフォームを構築します。
ModelFactoryが現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:
OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーンのデプロイメントにおける現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいた「実用優先」の構成を行っています。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、マネタイズ可能、コンポーザブルといった利点を持ち、従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
3.2 OpenLoRA、微調整モデルのオンチェーンアセット化
LoRA(Low-Rank Adaptation)は、事前学習された大規模モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルパラメータを変更することなく、トレーニングコストとストレージの要求を大幅に削減する効率的なパラメータ微調整手法です。従来の大規模言語モデル(例:LLaMA、GPT-3)は通常、数十億から千億のパラメータを持っています。これらを特定のタスク(例:法律質問応答、医療相談)に使用するには微調整(fine-tuning)が必要です。LoRAのコア戦略は、「元の大規模モデルのパラメータを凍結し、挿入した新しいパラメータ行列のみをトレーニングする」です。そのパラメータの効率性、トレーニングの速さ、デプロイの柔軟性により、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整手法となっています。
OpenLoRAはOpenLedgerが構築した、複数のモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルのデプロイにおいて一般的な高コスト、低再利用、GPUリソースの浪費といった問題を解決し、"可支付AI"(Payable AI)の実行を推進することです。
OpenLoRAシステムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルデプロイメントと呼び出し能力を実現します:
OpenLoRAの推論プロセスは技術的な側面で「成熟した汎用」のモデルサービス「プロセス」に属します。以下の通りです: