OpenLedger Derinlik Araştırması: OP Stack + EigenDA temeli ile veri odaklı, model kombinlenebilir bir akıllı ekonomi inşa etmek
Bir, Giriş | Crypto AI'nın model katmanındaki sıçrama
Veri, model ve hesaplama gücü, AI altyapısının üç temel unsuru olup, bunlar yakıt (veri), motor (model) ve enerji (hesaplama gücü) olarak karşılaştırılabilir ve hiçbiri birbirinden ayrılamaz. Geleneksel AI endüstrisinin altyapı evrimine benzer şekilde, Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa bir süre merkeziyetsiz GPU projeleri tarafından yönetilmiştir ( Akash, Render, io.net gibi ), genellikle "hesap gücünü birleştirme" üzerine kaba bir büyüme mantığını vurgulamıştır. Ancak 2025 yılına girerken, sektörün odak noktası yavaş yavaş model ve veri katmanına kaymakta, bu da Crypto AI'nin alt düzey kaynak rekabetinden daha sürdürülebilir ve uygulama değeri olan orta katman yapısına geçişini simgelemektedir.
Genel Amaçlı Model (LLM) vs Spesifik Model (SLM)
Geleneksel büyük dil modellerinin (LLM) eğitimi, büyük ölçekli veri setleri ve karmaşık dağıtık mimarilere yüksek ölçüde bağımlıdır, parametre ölçekleri genellikle 70B'den 500B'ye kadar çıkmaktadır, bir kez eğitmenin maliyeti genellikle birkaç yüz bin doları bulmaktadır. SLM (Özelleştirilmiş Dil Modeli) ise yeniden kullanılabilir temel bir modelin hafif ince ayar paradigması olarak, genellikle LLaMA, Mistral, DeepSeek gibi açık kaynak modellerine dayanmakta, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi tekniklerle bir araya gelerek belirli alan bilgisine sahip uzman modellerini hızlı bir şekilde oluşturarak eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltmaktadır.
Dikkate değer olan, SLM'nin LLM ağırlıklarıyla entegre edilmeyeceği, bunun yerine Agent mimarisi aracılığıyla çağrılar, eklenti sistemi dinamik yönlendirme, LoRA modülü sıcak takas ve RAG (Retrieve-Enhance-Generate) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleri aracılığıyla uzmanlık performansını artırarak son derece esnek bir kombinasyon akıllı sistemi oluşturmaktadır.
Kripto AI'nin model katmanındaki değeri ve sınırları
Kripto AI projeleri esasen büyük dil modellerinin (LLM) temel yeteneklerini doğrudan artırmada zordur, bunun temel nedeni şudur:
Teknik engeller çok yüksek: Foundation Model'i eğitmek için gereken veri ölçeği, hesaplama kaynakları ve mühendislik yetenekleri son derece büyük, şu anda yalnızca bazı teknoloji devleri bu yeteneklere sahip.
Açık kaynak ekosisteminin sınırlılıkları: LLaMA, Mixtral gibi ana akım temel modeller açık kaynak olsa da, model atılımlarını gerçekten yönlendiren anahtar hala araştırma kurumları ve kapalı kaynak mühendislik sistemleri etrafında yoğunlaşıyor, zincir üzerindeki projelerin temel model katmanındaki katılım alanı sınırlıdır.
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri hâlâ özel dil modelleri (SLM) aracılığıyla ince ayar yapabilir ve Web3'ün doğrulanabilirliği ve teşvik mekanizması ile değer uzantısını gerçekleştirebilir. AI endüstrisi zincirinin "kenar arayüz katmanı" olarak, iki ana yönde kendini göstermektedir:
Güvenilir Doğrulama Katmanı: Model üretim yollarını, veri katkılarını ve kullanım durumlarını zincir üzerindeki kayıtlarla takip ederek, AI çıktılarının izlenebilirliğini ve değiştirilemezliğini artırır.
Teşvik Mekanizması: Yerel Token kullanarak veri yükleme, model çağrısı, akıllı ajan (Agent) yürütme gibi eylemleri teşvik etmek ve model eğitimi ile hizmet için pozitif bir döngü oluşturmak.
AI model türlerinin sınıflandırılması ve blok zinciri uygunluk analizi
Bundan dolayı, model türü Crypto AI projelerinin uygulanabilir noktaları, küçük SLM'lerin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modellerinin yerel dağıtımı ve teşvikleri üzerinde yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile birleştiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özel bir değer sağlayabilir ve AI "arayüz katmanı"nın farklılaştırılmış değerini oluşturabilir.
Veri ve model tabanlı blockchain AI zinciri, her bir veri ve modelin katkı kaynağının net, değiştirilemez bir şekilde zincirlenmesini sağlar, veri güvenilirliğini ve model eğitiminin izlenebilirliğini önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması sayesinde, veri veya model çağrıldığında otomatik olarak ödül dağıtımını tetikler, AI davranışlarını ölçülebilir, ticarete konu olabilen token değerine dönüştürerek sürdürülebilir bir teşvik sistemi oluşturur. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirebilir, kuralların belirlenmesi ve iterasyona katılabilir, merkeziyetsiz yönetim yapısını geliştirebilir.
İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu
OpenLedger, mevcut piyasalarda veriler ve model teşvik mekanizmalarına odaklanan nadir blockchain AI projelerinden biridir. "Ödenebilir AI" kavramını ilk kez ortaya koyarak, veri katkıcıları, model geliştiricileri ve AI uygulama kurucularının aynı platformda iş birliği yapmasını ve gerçek katkılara dayalı olarak zincir üzerindeki kazançları elde etmelerini teşvik eden adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı inşa etmeyi amaçlamaktadır.
OpenLedger, "veri sağlama"dan "model dağıtım"ına ve ardından "paylaşım çağrısı"na kadar tam bir zincir kapama sunmaktadır. Temel modülleri şunlardır:
Model Fabrikası: Programlama gerekmeden, açık kaynak LLM'ye dayalı olarak LoRA ince ayar eğitimi yapabilir ve özel modelleri dağıtabilirsiniz;
OpenLoRA: Binlerce modelin birlikte varlığını destekler, ihtiyaca göre dinamik yükleme yapar, dağıtım maliyetlerini önemli ölçüde azaltır;
PoA (Atıf Kanıtı): Zincir üzerindeki çağrı kayıtları aracılığıyla katkı ölçümü ve ödül dağılımı sağlanır;
Datanets: Dikey sahalara yönelik yapılandırılmış veri ağı, topluluk işbirliği ile inşa ve doğrulanır;
Model Teklif Platformu (Model Proposal Platform): Birleştirilebilir, çağrılabilir ve ödenebilir zincir üstü model pazarı.
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, model kombinlenebilir bir "akıllı varlık ekonomi altyapısı" inşa etti ve AI değer zincirinin zincir üzerinde gerçekleştirilmesini sağladı.
Ve blockchain teknolojisinin benimsenmesinde, OpenLedger OP Stack + EigenDA'yı temel alarak AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir veri ve sözleşme çalışma ortamı oluşturdu.
OP Stack üzerinde inşa edilmiştir: Optimism teknolojisi yığınına dayanarak, yüksek verim ve düşük maliyetli yürütmeyi destekler;
Ethereum ana ağında hesaplama: İşlem güvenliğini ve varlık bütünlüğünü sağlamak;
EVM uyumlu: Geliştiricilerin Solidity tabanlı hızlı dağıtım ve genişletme yapmasını kolaylaştırır;
EigenDA, veri kullanılabilirliği desteği sağlar: depolama maliyetlerini önemli ölçüde azaltır ve verilerin doğrulanabilirliğini güvence altına alır.
NEAR gibi daha çok alt düzeye odaklanan, veri egemenliği ve "AI Agents on BOS" yapısını vurgulayan genel amaçlı AI zincirlerine kıyasla, OpenLedger daha çok veri ve model teşvikine yönelik AI özel zincirleri inşa etmeye odaklanmaktadır. Model geliştirme ve çağrılarının zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü ile gerçekleştirilmesini amaçlamaktadır. Web3 dünyasında model teşvik altyapısı olarak, HuggingFace tarzı model barındırma, Stripe tarzı kullanım ücretlendirmesi ve Infura tarzı zincir üstü birleştirilebilir arayüz ile "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.
Üç, OpenLedger'ın Temel Bileşenleri ve Teknolojik Mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafiksel arayüz sunar ve komut satırı araçları veya API entegrasyonuna ihtiyaç duymaz. Kullanıcılar, OpenLedger üzerinde yetkilendirilmiş ve onaylanmış veri setlerine dayanarak modeli ince ayar yapabilirler. Veri yetkilendirmesi, model eğitimi ve dağıtımını entegre bir iş akışı ile gerçekleştirmiştir; ana süreçler şunları içerir:
Veri Erişim Kontrolü: Kullanıcı veri talebi gönderir, sağlayıcı inceleyip onaylar, veriler otomatik olarak model eğitim arayüzüne entegre edilir.
Model Seçimi ve Konfigürasyonu: Ana akım LLM'leri (örneğin LLaMA, Mistral) destekler, GUI aracılığıyla hiperparametreleri yapılandırma.
Hafifletilmiş ince ayar: Dahili LoRA / QLoRA motoru, eğitim ilerlemesini gerçek zamanlı olarak gösterir.
Model değerlendirme ve dağıtım: Yerleşik değerlendirme araçları, dağıtım veya ekosistem paylaşım çağrısını destekler.
Etkileşimli doğrulama arayüzü: Modelin soru-cevap yeteneğini doğrudan test etmeyi kolaylaştıran sohbet tarzı arayüz sağlar.
RAG oluşturma izleme: Kaynak alıntıları ile cevap vererek güveni ve denetlenebilirliği artırır.
Model Factory sistem mimarisi, kimlik doğrulama, veri erişim izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izlenebilirliği de dahil olmak üzere altı ana modül içermektedir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşim sağlayan ve sürdürülebilir gelir elde etmeyi mümkün kılan entegre bir model hizmet platformu oluşturmaktadır.
ModelFactory şu anda desteklenen büyük dil modellerinin yeteneklerinin kısa listesi aşağıdadır:
LLaMA Serisi: Ekosistemi en geniş, topluluğu en aktif ve genel performansı en güçlü olan, şu anda en yaygın açık kaynak temel modellerden biridir.
Mistral: Verimli bir mimari, mükemmel çıkarım performansı, esnek dağıtım ve sınırlı kaynaklar için uygundur.
Qwen: Alibaba ürünü, Çince görev performansı mükemmel, kapsamlı yeteneklere sahip, yerli geliştiriciler için en iyi seçim.
ChatGLM: Çince konuşma etkisi belirgin, niş müşteri hizmetleri ve yerelleştirme senaryoları için uygundur.
Deepseek: Kod oluşturma ve matematiksel akıl yürütmede üstün performans sergileyen, akıllı geliştirme yardımcı araçları için uygundur.
Gemma: Google tarafından sunulan hafif bir model, yapısı net, hızlıca öğrenmek ve denemek için kolaydır.
Falcon: Önceden performans standardıydı, temel araştırma veya karşılaştırma testleri için uygundur, ancak topluluk etkinliği azalmıştır.
BLOOM: Çok dilli destek oldukça güçlü, ancak çıkarım performansı zayıf, dil kapsama araştırmaları için uygundur.
GPT-2: Klasik erken dönem modeli, yalnızca öğretim ve doğrulama amaçları için uygundur, gerçek kullanım için önerilmez.
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modeli veya çok modlu modeli içermese de, stratejisi geri kalmış değil; aksine, zincir üzerindeki dağıtımın gerçek kısıtlamalarına (çıkarsama maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) dayanan "pragmatik öncelik" yapılandırmasıdır.
Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizmasını entegre ederek veri katkı sağlayıcıları ve model geliştiricilerinin haklarını güvence altına alır. Düşük giriş engeli, paraya dönüştürülebilirlik ve birleştirilebilirlik avantajlarına sahiptir ve geleneksel model geliştirme araçları ile karşılaştırıldığında:
Geliştiriciler için: Model kuluçkası, dağıtımı ve gelir için tam yol sağlamak;
Platform için: Model varlık dolaşımı ve birleşim ekosistemi oluşturma;
Kullanıcılar için: Modelleri veya Ajanları API çağrısı yapar gibi birleştirerek kullanabilirsiniz.
3.2 OpenLoRA, modelin zincir üzerindeki varlıklaştırılması
LoRA (Düşük-Rank Adaptasyonu), önceden eğitilmiş büyük bir modele "düşük rütbeli matris" ekleyerek yeni görevleri öğrenmek için orijinal model parametrelerini değiştirmeden eğitim maliyetini ve depolama gereksinimlerini büyük ölçüde azaltan verimli bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin, LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Onları belirli görevler (örneğin, hukuk soru-cevap, tıbbi danışma) için kullanabilmek için ince ayar (fine-tuning) yapılması gerekmektedir. LoRA'nın temel stratejisi: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrisini eğitmek."; parametreleri verimli, eğitimi hızlı ve dağıtımı esnek olup, şu anda Web3 model dağıtımı ve kombineli çağrılar için en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel hedefi, mevcut AI model dağıtımında yaygın olan yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.
OpenLoRA sistem mimarisi ana bileşeni, modüler tasarıma dayalıdır ve model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsar; etkin, düşük maliyetli çoklu model dağıtımı ve çağrısı yeteneğini gerçekleştirir:
LoRA Adaptör Depolama Modülü (LoRA Adaptörleri Depolama): İnce ayar yapılmış LoRA adaptörü OpenLedger üzerinde barındırılmakta, talep üzerine yüklenmekte, tüm modellerin önbelleğe yüklenmesini önlemekte ve kaynak tasarrufu sağlamaktadır.
Model Barındırma ve Dinamik Birleştirme Katmanı (Model Hosting & Adapter Merging Layer): Tüm ince ayar modelleri temel büyük model (base model) ile ortaklaşa kullanılır, çıkarım sırasında LoRA adaptörü dinamik olarak birleştirilir, birden fazla adaptörün birleşik çıkarımını (ensemble) destekler, performansı artırır.
Çıkarım Motoru (Inference Engine): Flash-Attention, Paged-Attention, SGMV optimizasyonu gibi birçok CUDA optimizasyon teknolojisini entegre eder.
İstek Yönlendirme ve Token Akış Modülü (Request Router & Token Streaming): İstek içinde gerekli model doğrultusunda dinamik olarak doğru adaptöre yönlendirme yaparak, çekirdek optimizasyonu ile token seviyesinde akış üretimi gerçekleştirilir.
OpenLoRA'nın çıkarım süreci, teknik açıdan "olgun genel" model hizmeti sürecine aittir. Aşağıda:
Temel model yükleme: Sistem, LLaMA 3, Mistral gibi temel modelleri önceden yükler.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
16 Likes
Reward
16
5
Share
Comment
0/400
WalletDetective
· 14h ago
Bu makalede bahsedilen şehir söylemleri
View OriginalReply0
rugpull_survivor
· 14h ago
Saçmalama, sadece Bilgi İşlem Gücü Token'lerini alım satım yapıyorsun.
View OriginalReply0
AirdropFatigue
· 14h ago
Yine yeni bir konsept oluşturuyor, acemileri caydırıyor.
OpenLedger, veri odaklı akıllı ekonomik sistemler inşa eden yeni nesil AI zincirini oluşturuyor.
OpenLedger Derinlik Araştırması: OP Stack + EigenDA temeli ile veri odaklı, model kombinlenebilir bir akıllı ekonomi inşa etmek
Bir, Giriş | Crypto AI'nın model katmanındaki sıçrama
Veri, model ve hesaplama gücü, AI altyapısının üç temel unsuru olup, bunlar yakıt (veri), motor (model) ve enerji (hesaplama gücü) olarak karşılaştırılabilir ve hiçbiri birbirinden ayrılamaz. Geleneksel AI endüstrisinin altyapı evrimine benzer şekilde, Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa bir süre merkeziyetsiz GPU projeleri tarafından yönetilmiştir ( Akash, Render, io.net gibi ), genellikle "hesap gücünü birleştirme" üzerine kaba bir büyüme mantığını vurgulamıştır. Ancak 2025 yılına girerken, sektörün odak noktası yavaş yavaş model ve veri katmanına kaymakta, bu da Crypto AI'nin alt düzey kaynak rekabetinden daha sürdürülebilir ve uygulama değeri olan orta katman yapısına geçişini simgelemektedir.
Genel Amaçlı Model (LLM) vs Spesifik Model (SLM)
Geleneksel büyük dil modellerinin (LLM) eğitimi, büyük ölçekli veri setleri ve karmaşık dağıtık mimarilere yüksek ölçüde bağımlıdır, parametre ölçekleri genellikle 70B'den 500B'ye kadar çıkmaktadır, bir kez eğitmenin maliyeti genellikle birkaç yüz bin doları bulmaktadır. SLM (Özelleştirilmiş Dil Modeli) ise yeniden kullanılabilir temel bir modelin hafif ince ayar paradigması olarak, genellikle LLaMA, Mistral, DeepSeek gibi açık kaynak modellerine dayanmakta, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi tekniklerle bir araya gelerek belirli alan bilgisine sahip uzman modellerini hızlı bir şekilde oluşturarak eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltmaktadır.
Dikkate değer olan, SLM'nin LLM ağırlıklarıyla entegre edilmeyeceği, bunun yerine Agent mimarisi aracılığıyla çağrılar, eklenti sistemi dinamik yönlendirme, LoRA modülü sıcak takas ve RAG (Retrieve-Enhance-Generate) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleri aracılığıyla uzmanlık performansını artırarak son derece esnek bir kombinasyon akıllı sistemi oluşturmaktadır.
Kripto AI'nin model katmanındaki değeri ve sınırları
Kripto AI projeleri esasen büyük dil modellerinin (LLM) temel yeteneklerini doğrudan artırmada zordur, bunun temel nedeni şudur:
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri hâlâ özel dil modelleri (SLM) aracılığıyla ince ayar yapabilir ve Web3'ün doğrulanabilirliği ve teşvik mekanizması ile değer uzantısını gerçekleştirebilir. AI endüstrisi zincirinin "kenar arayüz katmanı" olarak, iki ana yönde kendini göstermektedir:
AI model türlerinin sınıflandırılması ve blok zinciri uygunluk analizi
Bundan dolayı, model türü Crypto AI projelerinin uygulanabilir noktaları, küçük SLM'lerin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modellerinin yerel dağıtımı ve teşvikleri üzerinde yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile birleştiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özel bir değer sağlayabilir ve AI "arayüz katmanı"nın farklılaştırılmış değerini oluşturabilir.
Veri ve model tabanlı blockchain AI zinciri, her bir veri ve modelin katkı kaynağının net, değiştirilemez bir şekilde zincirlenmesini sağlar, veri güvenilirliğini ve model eğitiminin izlenebilirliğini önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması sayesinde, veri veya model çağrıldığında otomatik olarak ödül dağıtımını tetikler, AI davranışlarını ölçülebilir, ticarete konu olabilen token değerine dönüştürerek sürdürülebilir bir teşvik sistemi oluşturur. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirebilir, kuralların belirlenmesi ve iterasyona katılabilir, merkeziyetsiz yönetim yapısını geliştirebilir.
İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu
OpenLedger, mevcut piyasalarda veriler ve model teşvik mekanizmalarına odaklanan nadir blockchain AI projelerinden biridir. "Ödenebilir AI" kavramını ilk kez ortaya koyarak, veri katkıcıları, model geliştiricileri ve AI uygulama kurucularının aynı platformda iş birliği yapmasını ve gerçek katkılara dayalı olarak zincir üzerindeki kazançları elde etmelerini teşvik eden adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı inşa etmeyi amaçlamaktadır.
OpenLedger, "veri sağlama"dan "model dağıtım"ına ve ardından "paylaşım çağrısı"na kadar tam bir zincir kapama sunmaktadır. Temel modülleri şunlardır:
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, model kombinlenebilir bir "akıllı varlık ekonomi altyapısı" inşa etti ve AI değer zincirinin zincir üzerinde gerçekleştirilmesini sağladı.
Ve blockchain teknolojisinin benimsenmesinde, OpenLedger OP Stack + EigenDA'yı temel alarak AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir veri ve sözleşme çalışma ortamı oluşturdu.
NEAR gibi daha çok alt düzeye odaklanan, veri egemenliği ve "AI Agents on BOS" yapısını vurgulayan genel amaçlı AI zincirlerine kıyasla, OpenLedger daha çok veri ve model teşvikine yönelik AI özel zincirleri inşa etmeye odaklanmaktadır. Model geliştirme ve çağrılarının zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü ile gerçekleştirilmesini amaçlamaktadır. Web3 dünyasında model teşvik altyapısı olarak, HuggingFace tarzı model barındırma, Stripe tarzı kullanım ücretlendirmesi ve Infura tarzı zincir üstü birleştirilebilir arayüz ile "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.
Üç, OpenLedger'ın Temel Bileşenleri ve Teknolojik Mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafiksel arayüz sunar ve komut satırı araçları veya API entegrasyonuna ihtiyaç duymaz. Kullanıcılar, OpenLedger üzerinde yetkilendirilmiş ve onaylanmış veri setlerine dayanarak modeli ince ayar yapabilirler. Veri yetkilendirmesi, model eğitimi ve dağıtımını entegre bir iş akışı ile gerçekleştirmiştir; ana süreçler şunları içerir:
Model Factory sistem mimarisi, kimlik doğrulama, veri erişim izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izlenebilirliği de dahil olmak üzere altı ana modül içermektedir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşim sağlayan ve sürdürülebilir gelir elde etmeyi mümkün kılan entegre bir model hizmet platformu oluşturmaktadır.
ModelFactory şu anda desteklenen büyük dil modellerinin yeteneklerinin kısa listesi aşağıdadır:
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modeli veya çok modlu modeli içermese de, stratejisi geri kalmış değil; aksine, zincir üzerindeki dağıtımın gerçek kısıtlamalarına (çıkarsama maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) dayanan "pragmatik öncelik" yapılandırmasıdır.
Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizmasını entegre ederek veri katkı sağlayıcıları ve model geliştiricilerinin haklarını güvence altına alır. Düşük giriş engeli, paraya dönüştürülebilirlik ve birleştirilebilirlik avantajlarına sahiptir ve geleneksel model geliştirme araçları ile karşılaştırıldığında:
3.2 OpenLoRA, modelin zincir üzerindeki varlıklaştırılması
LoRA (Düşük-Rank Adaptasyonu), önceden eğitilmiş büyük bir modele "düşük rütbeli matris" ekleyerek yeni görevleri öğrenmek için orijinal model parametrelerini değiştirmeden eğitim maliyetini ve depolama gereksinimlerini büyük ölçüde azaltan verimli bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin, LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Onları belirli görevler (örneğin, hukuk soru-cevap, tıbbi danışma) için kullanabilmek için ince ayar (fine-tuning) yapılması gerekmektedir. LoRA'nın temel stratejisi: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrisini eğitmek."; parametreleri verimli, eğitimi hızlı ve dağıtımı esnek olup, şu anda Web3 model dağıtımı ve kombineli çağrılar için en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel hedefi, mevcut AI model dağıtımında yaygın olan yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.
OpenLoRA sistem mimarisi ana bileşeni, modüler tasarıma dayalıdır ve model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsar; etkin, düşük maliyetli çoklu model dağıtımı ve çağrısı yeteneğini gerçekleştirir:
OpenLoRA'nın çıkarım süreci, teknik açıdan "olgun genel" model hizmeti sürecine aittir. Aşağıda: