OpenLedger crée une infrastructure économique intelligente pour les agents, construisant un écosystème d'incitation basé sur des modèles d'IA vérifiables.

OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, pilotée par les données et modélisable.

I. Introduction | La transition de la couche modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments centraux de l'infrastructure IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), tous indispensables. Comme pour l'évolution de l'infrastructure dans l'industrie traditionnelle de l'IA, le domaine de la Crypto IA a également traversé des phases similaires. Au début de 2024, le marché était dominé par des projets de GPU décentralisés, mettant en avant une logique de croissance extensive axée sur le "pouvoir de calcul". Cependant, en 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une compétition pour les ressources de base vers une construction intermédiaire plus durable et ayant une valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres variant de 70B à 500B, et le coût d'une seule formation atteignant souvent plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model) est un paradigme de micro-ajustement léger qui permet de réutiliser des modèles de base, généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, combinant une petite quantité de données professionnelles de haute qualité et des technologies comme LoRA, pour construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts de formation et les barrières techniques.

Il est à noter que le SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec le LLM grâce à des appels via l'architecture Agent, un système de plugins pour le routage dynamique, un module LoRA pour le branchement à chaud, et RAG (génération améliorée par récupération). Cette architecture conserve la large capacité de couverture du LLM tout en renforçant les performances spécialisées grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.

Crypto AI à la valeur et aux limites du niveau modèle

Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrière technologique trop élevée : l'échelle des données, les ressources de calcul et les compétences techniques nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et seules des géants technologiques comme les États-Unis et la Chine disposent actuellement de ces capacités.
  • Limites de l'écosystème open source : Bien que des modèles de base grand public tels que LLaMA et Mixtral soient désormais open source, la clé pour faire avancer les percées des modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés. L'espace de participation des projets en chaîne au niveau des modèles de base est limité.

Cependant, sur la base des modèles fondamentaux open source, le projet Crypto AI peut encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions centrales :

  • Couche de vérification fiable : améliore la traçabilité et la résistance à la falsification des sorties IA en enregistrant sur la chaîne le chemin de génération du modèle, la contribution des données et l'utilisation.
  • Mécanisme d'incitation : À l'aide du Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service de modèles.

Classification des types de modèles d'IA et analyse de la pertinence de la blockchain

Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur le réglage léger des petits SLM, l'intégration et la validation des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la « couche d'interface » de l'IA.

La chaîne AI basée sur des données et des modèles de blockchain permet d'enregistrer de manière claire et immuable la provenance de chaque donnée et modèle, améliorant ainsi la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement distribuées lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes en tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, pilotée par les données et modélisable

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à créer un environnement d'exécution de l'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les bâtisseurs d'applications IA à collaborer sur une même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèles » et enfin à « appel de partage des bénéfices », ses modules principaux comprennent :

  • Modèle d'usine : sans programmation, il est possible d'utiliser LoRA pour l'entraînement et le déploiement de modèles personnalisés basés sur LLM open source.
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses par l'enregistrement des appels sur la chaîne ;
  • Datanets : Réseaux de données structurées orientés vers des scénarios verticaux, construits et validés par la collaboration de la communauté ;
  • Plateforme de proposition de modèles (Model Proposal Platform) : marché de modèles en chaîne, modulable, appelable et payable.

À travers les modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents » basée sur les données et modèles composables, promouvant la chaîne de valeur de l'IA sur la blockchain.

Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.

  • Construire sur OP Stack : Basé sur la pile technologique Optimism, supporte un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à des chaînes AI générales comme NEAR, qui sont plus axées sur les couches sous-jacentes et mettent en avant la souveraineté des données avec l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées aux incitations basées sur les données et les modèles. Son objectif est de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne, créant ainsi une boucle de valeur. Il constitue une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et une interface combinable sur la chaîne à la manière d'Infura, pour promouvoir la réalisation du concept « modèle comme actif ».

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle d'usine, modèle d'usine sans code

ModelFactory est une plateforme de fine-tuning de modèles de langage (LLM) à grande échelle sous l'écosystème OpenLedger. Contrairement aux frameworks de fine-tuning traditionnels, ModelFactory propose une interface graphique entièrement opérationnelle, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent affiner des modèles en se basant sur des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela réalise un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
  • Sélection et configuration du modèle : prise en charge des LLM mainstream (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : Outils d'évaluation intégrés, supportant l'exportation pour le déploiement ou l'appel de partage écologique.
  • Interface de vérification interactive : Fournit une interface de type chat, facilitant les tests directs des capacités de question-réponse du modèle.
  • RAG générer la traçabilité : Répondre avec des citations de sources, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et capable de monétisation durable.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, guidée par les données et modulable

Le tableau ci-dessous présente les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : écosystème le plus large, communauté active, performances générales élevées, c'est l'un des modèles de base open source les plus populaires actuellement.
  • Mistral : architecture efficace, performances d'inférence excellentes, adapté aux scénarios de déploiement flexibles et aux ressources limitées.
  • Qwen : Produit par Alibaba, performance exceptionnelle sur les tâches en chinois, capacités globales fortes, idéal pour les développeurs nationaux.
  • ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Autrefois une référence en matière de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : un support multilingue plutôt fort, mais des performances d'inférence faibles, adapté aux recherches axées sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, adapté uniquement à des fins pédagogiques et de vérification, il n'est pas recommandé de l'utiliser en déploiement réel.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais repose sur une configuration « axée sur l'utilité » basée sur les contraintes réelles de déploiement sur la chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory, en tant qu'outil sans code, intègre un mécanisme de preuve de contribution dans tous ses modèles, garantissant les droits des contributeurs de données et des développeurs de modèles. Il présente des avantages tels que des barrières d'entrée faibles, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un parcours complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
  • Pour les utilisateurs : il est possible de combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Rapport de recherche : construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modulable

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle fine-tuned

LoRA (Low-Rank Adaptation) est une méthode efficace de micro-ajustement des paramètres, qui consiste à insérer un « matrice de faible rang » dans un grand modèle pré-entraîné pour apprendre de nouvelles tâches, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions-réponses juridiques ou les consultations médicales), un micro-ajustement (fine-tuning) est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. », ses paramètres sont efficaces, son entraînement rapide et son déploiement flexible, ce qui en fait la méthode de micro-ajustement la plus adaptée au déploiement et à l'appel combiné de modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement multi-modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, et de favoriser l'exécution de l'« IA payable ».

OpenLoRA architecture core components, based on modular design, covering key links such as model storage, inference execution, and request routing, achieving efficient and low-cost multi-model deployment and invocation capabilities.

  • Module de stockage des adaptateurs LoRA (LoRA Adapters Storage) : Les adaptateurs LoRA finement réglés sont hébergés sur OpenLedger, permettant un chargement à la demande et évitant le préchargement de tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèle et融动态
OP1.11%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Reposter
  • Partager
Commentaire
0/400
NotAFinancialAdvicevip
· Il y a 20h
Encore une fois, se faire prendre pour des cons.
Voir l'originalRépondre0
rugpull_survivorvip
· Il y a 20h
Encore un nouveau broyeur à pigeons
Voir l'originalRépondre0
CompoundPersonalityvip
· Il y a 20h
Ça a l'air de faites vos propres recherches (DYOR)
Voir l'originalRépondre0
AirdropATMvip
· Il y a 20h
Tsk tsk, n'est-ce pas ce qui reste de web2 ?
Voir l'originalRépondre0
fren.ethvip
· Il y a 20h
Intégration de la couche Ethereum ? Regardons le spectacle ing
Voir l'originalRépondre0
SilentObservervip
· Il y a 20h
C'est juste un projet de mode.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)