OpenLedger العمق تقرير بحثي: بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع من خلال نموذج OP Stack + EigenDA
أ. المقدمة | الانتقال النموذجي لـ Crypto AI
البيانات، النماذج وقوة الحوسبة هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، مماثلة للوقود (البيانات)، المحرك (النموذج)، والطاقة (قوة الحوسبة) التي لا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، مرت مجال Crypto AI بمراحل مشابهة. في أوائل عام 2024، كان السوق مدعومًا بمشاريع GPU اللامركزية مثل (Akash، Render، io.net وغيرها من )، حيث تم التأكيد على منطق النمو الواسع "لجمع قوة الحوسبة". ولكن مع دخول عام 2025، بدأت نقطة التركيز في الصناعة تتحول تدريجياً نحو طبقة النماذج والبيانات، مما يدل على أن Crypto AI تنتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تدريب نماذج اللغة الكبيرة التقليدية (LLM) يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يبلغ حجم المعلمات عادةً من 70B إلى 500B، وتصل تكلفة التدريب مرة واحدة إلى ملايين الدولارات. أما SLM (نموذج اللغة المتخصص) كنهج خفيف لتعديل النماذج الأساسية القابلة لإعادة الاستخدام، فغالبًا ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تتمتع بمعرفة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التكنولوجية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال هيكل Agent، ونظام المكونات الإضافية، والتوجيه الديناميكي، ووحدات LoRA القابلة للتوصيل الساخن، وRAG (التوليد المعزز بالاسترجاع). يحتفظ هذا الهيكل بقدرة LLM الواسعة التغطية، بينما يعزز الأداء الاحترافي من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
القيمة والحدود لـ Crypto AI في طبقة النماذج
مشاريع الذكاء الاصطناعي للعملات الرقمية من الصعب في جوهرها تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
العوائق التقنية مرتفعة جدًا: حجم البيانات والموارد الحاسوبية والقدرات الهندسية اللازمة لتدريب نموذج Foundation ضخمة للغاية، حاليًا لا تتمتع سوى بعض الشركات التقنية الكبرى بالقدرة المناسبة.
القيود على النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرائجة مثل LLaMA وMixtral مفتوحة المصدر، إلا أن المفتاح الحقيقي لدفع النماذج إلى الأمام لا يزال مركّزًا في المؤسسات البحثية ونظم الهندسة المغلقة، حيث إن مساحة المشاركة لمشروعات السلسلة في مستوى النموذج الأساسي محدودة.
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالإضافة إلى دمج قابلية التحقق وآليات التحفيز في Web3. ك"طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوق: من خلال تسجيل مسارات توليد النموذج، ومساهمات البيانات واستخدامها على السلسلة، تعزز قابلية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
آلية التحفيز: من خلال استخدام الرمز الأصلي، لتحفيز سلوكيات مثل تحميل البيانات، استدعاء النموذج، وتنفيذ الوكلاء (Agent)، لبناء دورة إيجابية لتدريب النموذج والخدمات.
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين
من هنا يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تتركز بشكل رئيسي على تحسين خفة الوزن لتعديلات SLM الصغيرة، ودمج بيانات سلسلة RAG والتحقق منها، بالإضافة إلى نشر نموذج Edge محليًا والتحفيز. بالاستفادة من قابلية التحقق التي توفرها البلوكشين وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة ل"طبقة واجهة" الذكاء الاصطناعي.
سلسلة Blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وسجل غير قابل للتغيير لمصدر مساهمة كل بيانات ونموذج، مما يعزز بشكل كبير موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة توكن قابلة للقياس والتداول، لبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت التوكن، والمشاركة في وضع القواعد والتكرار، وتحسين هيكل الحكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على بيانات وآليات تحفيز النماذج. لقد اقترح لأول مرة مفهوم "Payable AI" ، ويهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، وتحفيز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
تقدم OpenLedger حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النموذج" ثم "استدعاء توزيع الأرباح"، تشمل وحداتها الأساسية ما يلي:
مصنع النموذج:بدون برمجة، يمكن استخدام LoRA لتدريب وتوزيع نماذج مخصصة بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم وجود آلاف النماذج في نفس الوقت، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): قياس المساهمة وتوزيع المكافآت من خلال تسجيل استدعاءات على السلسلة؛
Datanets: شبكة بيانات هيكلية موجهة نحو السيناريوهات العمودية، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتجميع، وقابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية البلوكشين، تقدم OpenLedger قاعدة باستخدام OP Stack + EigenDA، لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
مبني على OP Stack: يعتمد على تكنولوجيا Optimism، يدعم تنفيذاً عالي السعة ومنخفض التكلفة؛
تسوية على الشبكة الرئيسية للإيثريوم: تأكد من أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع بسرعة على أساس Solidity؛
EigenDA يقدم دعم توفر البيانات: يقلل بشكل كبير من تكاليف التخزين، ويضمن قابلية التحقق من البيانات.
بالمقارنة مع سلاسل AI العامة مثل NEAR التي تركز بشكل أكبر على المستوى الأساسي وتدعم سيادة البيانات و"الوكلاء الذكاء الاصطناعي على بنية BOS"، تركز OpenLedger أكثر على بناء سلاسل AI المخصصة المعنية بالبيانات والتحفيز على النماذج، وتهدف إلى جعل تطوير النموذج واستدعائه على السلسلة قابلاً للتتبع وقابلاً للتكوين وقابلاً للاستدامة. إنها بنية تحتية للتحفيز على النموذج في عالم Web3، تجمع بين استضافة النماذج على طريقة HuggingFace، والفوترة على طريقة Stripe، وواجهة قابلة للتكوين على السلسلة على طريقة Infura، مما يعزز المسار نحو "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger والهيكل التكنولوجي
3.1 نموذج المصنع، بدون نموذج برمجي
ModelFactory هو منصة لضبط النماذج اللغوية الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بالكامل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النماذج بناءً على مجموعات البيانات التي تم الحصول على إذنها ومراجعتها على OpenLedger. تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النماذج، ونشرها، وتشمل العمليات الأساسية ما يلي:
التحكم في وصول البيانات: يقدم المستخدم طلبات البيانات، يقوم المزود بمراجعة الموافقة، وتتم إضافة البيانات تلقائيًا إلى واجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الشائعة (مثل LLaMA وMistral)، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
التعديل الخفيف: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الفعلي.
تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو استدعاء المشاركة البيئية.
واجهة تحقق تفاعلية: توفر واجهة محادثة، تسهل اختبار قدرة النموذج على الإجابة.
توليد RAG للتتبع: إجابة مع مصادر مرجعية، لتعزيز الثقة وقابلية التدقيق.
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، وصلاحيات البيانات، وتعديل النموذج، وتقييم النشر وRAG تتبع المصادر، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للت Monetization المستدام.
تظهر جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حالياً من قبل ModelFactory كما يلي:
سلسلة LLaMA: الأكثر انتشارًا في النظام البيئي، مجتمع نشط، أداء عام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
Mistral: هيكل فعال، أداء استنتاج ممتاز، مناسب للنشر في سيناريوهات مرنة وموارد محدودة.
Qwen: منتج من علي بابا، أداء ممتاز في المهام الصينية، قدرة شاملة قوية، مناسب كخيار أول للمطورين المحليين.
ChatGLM: يتميز بأداء محادثة باللغة الصينية، مناسب لخدمات العملاء في المجالات المحددة والمشاهد المحلية.
Deepseek: يتميز بأداء ممتاز في توليد الكود والاستدلال الرياضي، وهو مناسب لأدوات المساعدة في التطوير الذكي.
Gemma: نموذج خفيف تم إطلاقه من قبل جوجل، هيكل واضح، سهل الاستخدام السريع والتجريب.
فالكون: كانت معيار الأداء، مناسبة للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب لأبحاث تغطية اللغات.
GPT-2: نموذج مبكر كلاسيكي، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" المعتمد على القيود الواقعية للتنفيذ على السلسلة (تكلفة الاستدلال، التكيف مع RAG، التوافق مع LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود، حيث يتم تضمين آلية إثبات المساهمة في جميع النماذج، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل لنماذج الحضانة والتوزيع والإيرادات؛
بالنسبة للمنصة: تشكيل نموذج لتداول الأصول وتركيب النظام البيئي؛
للمستخدمين: يمكن استخدام النماذج أو الوكلاء بشكل متكامل كما هو الحال عند استدعاء API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA ، الأصول على السلسلة للنموذج المدرب
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم مهام جديدة من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير مدرب مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة قانونية، استشارات طبية)، تحتاج إلى ضبط (تعديل دقيق). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة."، حيث تتمتع بكفاءة معلمات، تدريب سريع، ونشر مرن، مما يجعلها الطريقة الرائجة الأنسب لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الرئيسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، ودفع تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
مكونات النظام الأساسية لـ OpenLoRA، تعتمد على التصميم المعياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من الجوانب الرئيسية، تحقق من كفاءة، وتكلفة منخفضة لنشر واستدعاء نماذج متعددة:
وحدة تخزين محولات LoRA (LoRA Adapters Storage): يتم استضافة محول LoRA الذي تم ضبطه في OpenLedger، مما يتيح التحميل حسب الطلب، ويتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، مما يوفر الموارد.
استضافة النماذج وطبقة دمج المحولات (Model Hosting & Adapter Merging Layer): جميع نماذج التخصيص الصغيرة تشترك في النموذج الأساسي (base model)، خلال الاستدلال يتم دمج محول LoRA ديناميكياً، ويدعم الاستدلال المشترك لعدة محولات (ensemble) لتحسين الأداء.
محرك الاستدلال (Inference Engine): يتضمن تقنيات تحسين CUDA متعددة مثل Flash-Attention و Paged-Attention و SGMV.
وحدة توجيه الطلبات والإخراج المتدفق (Request Router & Token Streaming): توجيه ديناميكي إلى المحول الصحيح بناءً على النموذج المطلوب في الطلب، وتحقيق توليد متدفق على مستوى التوكن من خلال تحسين النواة.
تتعلق عملية استدلال OpenLoRA بخدمة نموذج "ناضجة وعامة" على المستوى التقني، كما يلي:
تحميل النموذج الأساسي: النظام يحمل مسبقًا نماذج أساسية مثل LLaMA 3 وMistral وغيرها
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
OpenLedger تبني الجيل الجديد من سلسلة الذكاء الاصطناعي لبناء اقتصاد الذكاء المعتمد على البيانات
OpenLedger العمق تقرير بحثي: بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع من خلال نموذج OP Stack + EigenDA
أ. المقدمة | الانتقال النموذجي لـ Crypto AI
البيانات، النماذج وقوة الحوسبة هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، مماثلة للوقود (البيانات)، المحرك (النموذج)، والطاقة (قوة الحوسبة) التي لا يمكن الاستغناء عن أي منها. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، مرت مجال Crypto AI بمراحل مشابهة. في أوائل عام 2024، كان السوق مدعومًا بمشاريع GPU اللامركزية مثل (Akash، Render، io.net وغيرها من )، حيث تم التأكيد على منطق النمو الواسع "لجمع قوة الحوسبة". ولكن مع دخول عام 2025، بدأت نقطة التركيز في الصناعة تتحول تدريجياً نحو طبقة النماذج والبيانات، مما يدل على أن Crypto AI تنتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تدريب نماذج اللغة الكبيرة التقليدية (LLM) يعتمد بشكل كبير على مجموعات البيانات الضخمة والهياكل الموزعة المعقدة، حيث يبلغ حجم المعلمات عادةً من 70B إلى 500B، وتصل تكلفة التدريب مرة واحدة إلى ملايين الدولارات. أما SLM (نموذج اللغة المتخصص) كنهج خفيف لتعديل النماذج الأساسية القابلة لإعادة الاستخدام، فغالبًا ما يعتمد على نماذج مفتوحة المصدر مثل LLaMA وMistral وDeepSeek، ويجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تتمتع بمعرفة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب والعقبات التكنولوجية.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيعمل بالتعاون مع LLM من خلال هيكل Agent، ونظام المكونات الإضافية، والتوجيه الديناميكي، ووحدات LoRA القابلة للتوصيل الساخن، وRAG (التوليد المعزز بالاسترجاع). يحتفظ هذا الهيكل بقدرة LLM الواسعة التغطية، بينما يعزز الأداء الاحترافي من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
القيمة والحدود لـ Crypto AI في طبقة النماذج
مشاريع الذكاء الاصطناعي للعملات الرقمية من الصعب في جوهرها تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة ممتدة من خلال ضبط نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالإضافة إلى دمج قابلية التحقق وآليات التحفيز في Web3. ك"طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين
من هنا يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تتركز بشكل رئيسي على تحسين خفة الوزن لتعديلات SLM الصغيرة، ودمج بيانات سلسلة RAG والتحقق منها، بالإضافة إلى نشر نموذج Edge محليًا والتحفيز. بالاستفادة من قابلية التحقق التي توفرها البلوكشين وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يشكل قيمة متميزة ل"طبقة واجهة" الذكاء الاصطناعي.
سلسلة Blockchain AI القائمة على البيانات والنماذج، يمكن أن تسجل بوضوح وسجل غير قابل للتغيير لمصدر مساهمة كل بيانات ونموذج، مما يعزز بشكل كبير موثوقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك الذكاء الاصطناعي إلى قيمة توكن قابلة للقياس والتداول، لبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت التوكن، والمشاركة في وضع القواعد والتكرار، وتحسين هيكل الحكم اللامركزي.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
٢. نظرة عامة على المشروع | رؤية OpenLedger لسلسلة الذكاء الاصطناعي
OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على بيانات وآليات تحفيز النماذج. لقد اقترح لأول مرة مفهوم "Payable AI" ، ويهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، وتحفيز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.
تقدم OpenLedger حلقة مغلقة كاملة من "توفير البيانات" إلى "نشر النموذج" ثم "استدعاء توزيع الأرباح"، تشمل وحداتها الأساسية ما يلي:
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي" مدفوعة بالبيانات وقابلة للتجميع، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية البلوكشين، تقدم OpenLedger قاعدة باستخدام OP Stack + EigenDA، لبناء بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
بالمقارنة مع سلاسل AI العامة مثل NEAR التي تركز بشكل أكبر على المستوى الأساسي وتدعم سيادة البيانات و"الوكلاء الذكاء الاصطناعي على بنية BOS"، تركز OpenLedger أكثر على بناء سلاسل AI المخصصة المعنية بالبيانات والتحفيز على النماذج، وتهدف إلى جعل تطوير النموذج واستدعائه على السلسلة قابلاً للتتبع وقابلاً للتكوين وقابلاً للاستدامة. إنها بنية تحتية للتحفيز على النموذج في عالم Web3، تجمع بين استضافة النماذج على طريقة HuggingFace، والفوترة على طريقة Stripe، وواجهة قابلة للتكوين على السلسلة على طريقة Infura، مما يعزز المسار نحو "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية لـ OpenLedger والهيكل التكنولوجي
3.1 نموذج المصنع، بدون نموذج برمجي
ModelFactory هو منصة لضبط النماذج اللغوية الكبيرة (LLM) ضمن نظام OpenLedger البيئي. على عكس أطر الضبط التقليدية، يوفر ModelFactory واجهة رسومية بالكامل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النماذج بناءً على مجموعات البيانات التي تم الحصول على إذنها ومراجعتها على OpenLedger. تم تحقيق سير العمل المتكامل لتفويض البيانات، وتدريب النماذج، ونشرها، وتشمل العمليات الأساسية ما يلي:
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل المصادقة على الهوية، وصلاحيات البيانات، وتعديل النموذج، وتقييم النشر وRAG تتبع المصادر، لإنشاء منصة خدمات نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للت Monetization المستدام.
تظهر جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حالياً من قبل ModelFactory كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" المعتمد على القيود الواقعية للتنفيذ على السلسلة (تكلفة الاستدلال، التكيف مع RAG، التوافق مع LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود، حيث يتم تضمين آلية إثبات المساهمة في جميع النماذج، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل والتركيب، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
3.2 OpenLoRA ، الأصول على السلسلة للنموذج المدرب
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، حيث تتعلم مهام جديدة من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير مدرب مسبقًا، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA و GPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة قانونية، استشارات طبية)، تحتاج إلى ضبط (تعديل دقيق). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة."، حيث تتمتع بكفاءة معلمات، تدريب سريع، ونشر مرن، مما يجعلها الطريقة الرائجة الأنسب لنشر نماذج Web3 واستدعاءها بشكل مركب.
OpenLoRA هو إطار استدلال خفيف الوزن تم بناؤه بواسطة OpenLedger ومصمم خصيصًا لنشر نماذج متعددة ومشاركة الموارد. الهدف الرئيسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، ودفع تنفيذ "الذكاء الاصطناعي القابل للدفع" (Payable AI).
مكونات النظام الأساسية لـ OpenLoRA، تعتمد على التصميم المعياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من الجوانب الرئيسية، تحقق من كفاءة، وتكلفة منخفضة لنشر واستدعاء نماذج متعددة:
تتعلق عملية استدلال OpenLoRA بخدمة نموذج "ناضجة وعامة" على المستوى التقني، كما يلي: