OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables.
I. Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), chacun étant indispensable. Tout comme l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des phases similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés tels que (Akash, Render, io.net, qui mettaient généralement l'accent sur une logique de croissance extensive axée sur la "fusion de la puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant une transition de la compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur appliquée.
) Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral et DeepSeek, combiné avec une petite quantité de données professionnelles de haute qualité et des techniques comme LoRA, pour construire rapidement des modèles experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts d'entraînement et les barrières techniques.
Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, des modules LoRA à chaud, et RAG (Génération Améliorée par Recherche). Cette architecture maintient la large capacité de couverture du LLM tout en renforçant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Barrière technique trop élevée : l'échelle des données, les ressources de calcul et les capacités d'ingénierie nécessaires pour entraîner un modèle de fondation sont extrêmement vastes, et seules certaines grandes entreprises technologiques disposent des capacités correspondantes.
Limites de l'écosystème open source : Bien que des modèles de base grand public comme LLaMA et Mixtral soient open source, la clé pour faire avancer véritablement les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles centraux est limité.
Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de valeur de l'IA, cela se traduit par deux directions principales :
Couche de validation fiable : enregistrement sur la chaîne des chemins de génération de modèles, des contributions de données et de leur utilisation, renforçant ainsi la traçabilité et la résistance à la falsification des sorties de l'IA.
Mécanisme d'incitation : Grâce au token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents, etc., construire un cycle vertueux de formation et de service de modèles.
Classification des types de modèles AI et analyse de l'applicabilité de la blockchain
Il en ressort que les points de départ viables des projets Crypto AI de type modèle se concentrent principalement sur l'allégement et le réglage fin des petits SLM, l'intégration et la validation des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et immuable la provenance des contributions de chaque donnée et modèle sur la chaîne, ce qui améliore considérablement la fiabilité des données et la traçabilité de l'entraînement des modèles. En même temps, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant les comportements d'IA en valeur tokenisée mesurable et négociable, créant ainsi un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes tokenisés, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.
![OpenLedgerDepth rapport de recherche : construire une économie d'agents intelligents basée sur OP Stack+EigenDA, axée sur les données et modélable]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
Deuxième, aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché aujourd'hui qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de "Payable AI", visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus sur la chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de "fourniture de données" à "déploiement de modèle" puis à "appel de partage de revenus", ses modules clés comprennent :
Modèle d'usine : Pas besoin de programmation, vous pouvez utiliser le LoRA pour l'ajustement et le déploiement de modèles personnalisés basés sur LLM open source.
OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses réalisée par l'enregistrement des appels en chaîne ;
Datanets : Réseau de données structurées orienté vers des scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne combinables, invoquables et payables.
Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique intelligente" basée sur les données et les modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Construit sur OP Stack : basé sur la technologie Optimism, supporte un haut débit et une exécution à faible coût ;
Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
EigenDA fournit un support pour la disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.
Comparé à des chaînes d'IA généralistes comme NEAR, qui sont plus axées sur les couches sous-jacentes et mettent l'accent sur la souveraineté des données avec l'architecture "AI Agents on BOS", OpenLedger se concentre davantage sur la construction de chaînes dédiées à l'IA orientées vers les incitations basées sur les données et les modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure de motivation des modèles dans le monde Web3, alliant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et des interfaces combinables sur la chaîne à la manière d'Infura, pour promouvoir le chemin vers la réalisation de "modèle en tant qu'actif".
![OpenLedger Depth Report : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et modélisable])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Trois, les composants clés et l'architecture technique d'OpenLedger
) 3.1 Modèle d'usine, pas besoin de code modèle d'usine
ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer des micro-ajustements des modèles en utilisant des ensembles de données autorisés et examinés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :
Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
Sélection et configuration du modèle : prend en charge les LLM populaires (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
Évaluation et déploiement des modèles : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel de partage écologique.
Interface de vérification interactive : Fournit une interface de type chat, facilitant les tests directs des capacités de réponse du modèle.
Génération de traçabilité RAG : Répondre avec des références de source, renforçant la confiance et l'audibilité.
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, avec une interaction en temps réel et une monétisation durable.
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Série LLaMA : écosystème le plus large, communauté active, performances générales élevées, c'est l'un des modèles de base open source les plus répandus actuellement.
Mistral : architecture efficace, performance d'inférence exceptionnelle, adaptée aux scénarios flexibles et aux ressources limitées.
Qwen : Produit par Alibaba, excellent en performance sur les tâches en chinois, avec de solides compétences globales, idéal pour les développeurs nationaux.
ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
Falcon : Anciennement une référence en matière de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
BLOOM : support multilingue fort, mais performances d'inférence faibles, adapté à la recherche à couverture linguistique.
GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, son utilisation en déploiement réel n'est pas recommandée.
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE hautes performances ou multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration "priorité à l'utilité" basée sur les contraintes réalistes du déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, présentant des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils traditionnels de développement de modèles :
Pour les développeurs : fournir un parcours complet pour l'incubation, la distribution et les revenus des modèles ;
Pour la plateforme : former un écosystème de circulation et de combinaison d'actifs modélisés ;
Pour les utilisateurs : vous pouvez combiner les modèles ou les agents de la même manière que vous appelez une API.
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisée de manière combinable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
) 3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle finement ajusté
LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui permet de réduire considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin est nécessaire. La stratégie principale de LoRA est : "geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée." Ses paramètres sont efficaces, son entraînement est rapide et son déploiement est flexible, ce qui en fait la méthode de réglage fin la plus appropriée pour le déploiement de modèles Web3 et les appels combinés.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement pour le déploiement multi-modèle et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution du "AI Payable".
OpenLoRA architecture core components, basé sur une conception modulaire, couvrent le stockage des modèles, l'exécution des inférences, le routage des demandes et d'autres étapes clés, permettant une capacité de déploiement et d'appel de plusieurs modèles de manière efficace et à faible coût :
Module de stockage d'adaptateurs LoRA ###LoRA Adapters Storage( : les adaptateurs LoRA affinés sont hébergés sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles en mémoire vidéo, économisant des ressources.
Hébergement de modèle et couche de fusion dynamique )Modèle d'Hébergement & Couche de Fusion d'Adaptateur( : Tous les modèles ajustés utilisent le modèle de base (base model), lors de l'inférence, l'adaptateur LoRA est fusionné dynamiquement, prenant en charge l'inférence conjointe de plusieurs adaptateurs (ensemble), améliorant les performances.
Moteur d'inférence (Inference Engine) : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
Routeur de requêtes et module de sortie en continu )Request Router & Token Streaming( : Routage dynamique vers le bon adaptateur en fonction du modèle requis dans la requête, générant des tokens au niveau du flux grâce à une optimisation du noyau.
Le processus d'inférence d'OpenLoRA appartient au niveau technique de "services de modèles "matures et génériques", comme suit :
Chargement du modèle de base : le système précharge des modèles de base tels que LLaMA 3, Mistral, etc.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
5
Partager
Commentaire
0/400
WalletDetective
· Il y a 14h
C'est le jargon urbain mentionné dans cet article.
Voir l'originalRépondre0
rugpull_survivor
· Il y a 14h
Ne fais pas semblant, c'est juste du trading de jetons de puissance de calcul.
Voir l'originalRépondre0
AirdropFatigue
· Il y a 14h
Encore en train de travailler sur un nouveau concept, décourager les débutants.
Voir l'originalRépondre0
OnchainDetective
· Il y a 14h
Encore une fois, le modèle économique yy est arrivé.
Voir l'originalRépondre0
YieldChaser
· Il y a 14h
Que peut faire cet agent de manière transparente ?
OpenLedger crée une nouvelle génération de chaînes AI pour construire une économie d'agents intelligents basée sur les données.
OpenLedger Depth Rapport de recherche : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et les modèles combinables.
I. Introduction | La transition de la couche modèle de Crypto AI
Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèle) et à l'énergie (puissance de calcul), chacun étant indispensable. Tout comme l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des phases similaires. Début 2024, le marché était en grande partie dominé par des projets de GPU décentralisés tels que (Akash, Render, io.net, qui mettaient généralement l'accent sur une logique de croissance extensive axée sur la "fusion de la puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant une transition de la compétition pour les ressources de base vers une construction intermédiaire plus durable et de valeur appliquée.
) Modèle général (LLM) vs Modèle spécialisé (SLM)
Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de vastes ensembles de données et d'architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral et DeepSeek, combiné avec une petite quantité de données professionnelles de haute qualité et des techniques comme LoRA, pour construire rapidement des modèles experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement les coûts d'entraînement et les barrières techniques.
Il est important de noter que le SLM ne sera pas intégré dans les poids du LLM, mais fonctionnera en collaboration avec le LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, des modules LoRA à chaud, et RAG (Génération Améliorée par Recherche). Cette architecture maintient la large capacité de couverture du LLM tout en renforçant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.
La valeur et les limites de Crypto AI au niveau du modèle
Les projets d'IA crypto sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que
Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM) et en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de valeur de l'IA, cela se traduit par deux directions principales :
Classification des types de modèles AI et analyse de l'applicabilité de la blockchain
Il en ressort que les points de départ viables des projets Crypto AI de type modèle se concentrent principalement sur l'allégement et le réglage fin des petits SLM, l'intégration et la validation des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme des tokens, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.
La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et immuable la provenance des contributions de chaque donnée et modèle sur la chaîne, ce qui améliore considérablement la fiabilité des données et la traçabilité de l'entraînement des modèles. En même temps, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement déclenchées lors de l'appel de données ou de modèles, transformant les comportements d'IA en valeur tokenisée mesurable et négociable, créant ainsi un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes tokenisés, participer à l'élaboration et à l'itération des règles, et améliorer la structure de gouvernance décentralisée.
![OpenLedgerDepth rapport de recherche : construire une économie d'agents intelligents basée sur OP Stack+EigenDA, axée sur les données et modélable]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
Deuxième, aperçu du projet | La vision de la chaîne AI d'OpenLedger
OpenLedger est l'un des rares projets d'IA blockchain sur le marché aujourd'hui qui se concentre sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de "Payable AI", visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus sur la chaîne en fonction de leurs contributions réelles.
OpenLedger offre une boucle fermée complète allant de "fourniture de données" à "déploiement de modèle" puis à "appel de partage de revenus", ses modules clés comprennent :
Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique intelligente" basée sur les données et les modèles combinables, favorisant la chaîne de valeur de l'IA sur la blockchain.
Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.
Comparé à des chaînes d'IA généralistes comme NEAR, qui sont plus axées sur les couches sous-jacentes et mettent l'accent sur la souveraineté des données avec l'architecture "AI Agents on BOS", OpenLedger se concentre davantage sur la construction de chaînes dédiées à l'IA orientées vers les incitations basées sur les données et les modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure de motivation des modèles dans le monde Web3, alliant l'hébergement de modèles à la manière de HuggingFace, la facturation à l'utilisation à la manière de Stripe et des interfaces combinables sur la chaîne à la manière d'Infura, pour promouvoir le chemin vers la réalisation de "modèle en tant qu'actif".
![OpenLedger Depth Report : Construire une économie d'agents intelligents, basée sur OP Stack + EigenDA, axée sur les données et modélisable])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Trois, les composants clés et l'architecture technique d'OpenLedger
) 3.1 Modèle d'usine, pas besoin de code modèle d'usine
ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent effectuer des micro-ajustements des modèles en utilisant des ensembles de données autorisés et examinés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont le processus central comprend :
L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée et contrôlable, avec une interaction en temps réel et une monétisation durable.
Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :
Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE hautes performances ou multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration "priorité à l'utilité" basée sur les contraintes réalistes du déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).
Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, présentant des avantages tels qu'un faible seuil d'entrée, la monétisation et la combinabilité, par rapport aux outils traditionnels de développement de modèles :
![OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisée de manière combinable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
) 3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle finement ajusté
LoRA (Low-Rank Adaptation) est une méthode de réglage fin des paramètres efficace, qui apprend de nouvelles tâches en insérant des "matrices de faible rang" dans un modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui permet de réduire considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin est nécessaire. La stratégie principale de LoRA est : "geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée." Ses paramètres sont efficaces, son entraînement est rapide et son déploiement est flexible, ce qui en fait la méthode de réglage fin la plus appropriée pour le déploiement de modèles Web3 et les appels combinés.
OpenLoRA est un cadre d'inférence léger conçu par OpenLedger, spécialement pour le déploiement multi-modèle et le partage des ressources. Son objectif principal est de résoudre les problèmes courants de déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution du "AI Payable".
OpenLoRA architecture core components, basé sur une conception modulaire, couvrent le stockage des modèles, l'exécution des inférences, le routage des demandes et d'autres étapes clés, permettant une capacité de déploiement et d'appel de plusieurs modèles de manière efficace et à faible coût :
Le processus d'inférence d'OpenLoRA appartient au niveau technique de "services de modèles "matures et génériques", comme suit :