OpenLedger membangun rantai AI generasi baru untuk membangun ekonomi agen cerdas yang didorong oleh data

OpenLedger Kedalaman Riset: Membangun ekonomi agen yang didorong data dan dapat dikombinasikan dengan model menggunakan OP Stack+EigenDA sebagai dasar

I. Pendahuluan | Lompatan lapisan model Crypto AI

Data, model, dan daya komputasi adalah tiga elemen inti infrastruktur AI, yang dapat dis类比 sebagai bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Sama seperti jalur evolusi infrastruktur di industri AI tradisional, bidang Crypto AI juga telah melalui tahap serupa. Di awal 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi seperti (Akash, Render, io.net dan lainnya ), yang secara umum menekankan logika pertumbuhan kasar "menggabungkan daya komputasi". Namun, memasuki tahun 2025, fokus industri secara bertahap bergeser ke lapisan model dan data, menandakan bahwa Crypto AI sedang beralih dari kompetisi sumber daya dasar ke pembangunan lapisan menengah yang lebih berkelanjutan dan memiliki nilai aplikasi.

Model Besar Umum (LLM) vs Model Khusus (SLM)

Model bahasa besar (LLM) tradisional sangat bergantung pada kumpulan data skala besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter mencapai 70B hingga 500B, dan biaya pelatihan sekali dapat mencapai jutaan dolar. Di sisi lain, SLM (Model Bahasa Khusus) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknologi.

Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi bersama LLM melalui pemanggilan arsitektur Agent, sistem plugin untuk routing dinamis, modul LoRA yang dapat dipasang dan dicabut, serta RAG (peningkatan generasi berbasis pencarian). Arsitektur ini mempertahankan kemampuan luas LLM sambil meningkatkan kinerja profesional melalui modul penyetelan, membentuk sistem cerdas kombinasi yang sangat fleksibel.

Nilai dan batas Crypto AI di lapisan model

Proyek Crypto AI pada dasarnya sulit untuk langsung meningkatkan kemampuan inti model bahasa besar (LLM), alasan utamanya adalah

  • Hambatan teknis terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya beberapa raksasa teknologi yang memiliki kemampuan terkait.
  • Keterbatasan ekosistem sumber terbuka: Meskipun model dasar mainstream seperti LLaMA dan Mixtral telah menjadi sumber terbuka, kunci untuk mendorong terobosan model tetap terfokus pada lembaga penelitian dan sistem rekayasa tertutup, ruang partisipasi proyek on-chain di tingkat model inti terbatas.

Namun, di atas model dasar open-source, proyek Crypto AI masih dapat memperluas nilai melalui pemodelan bahasa yang disesuaikan (SLM), dan menggabungkan verifikasi serta mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, ini terwujud dalam dua arah inti:

  • Lapisan Verifikasi Tepercaya: Meningkatkan keterlacakan dan ketahanan terhadap manipulasi dari output AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan di blockchain.
  • Mekanisme insentif: Menggunakan Token asli untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan eksekusi agen (Agent), membangun siklus positif pelatihan dan layanan model.

Klasifikasi Tipe Model AI dan Analisis Kesesuaian Blockchain

Dapat dilihat bahwa titik jatuh yang layak untuk proyek Crypto AI yang berbasis model terutama terfokus pada penyetelan ringan SLM kecil, pengaksesan dan verifikasi data on-chain dengan arsitektur RAG, serta penyebaran lokal model Edge dan insentifnya. Dengan menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat memberikan nilai unik untuk skenario model dengan sumber daya menengah ke bawah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.

Blockchain AI chain berbasis data dan model dapat mencatat sumber kontribusi setiap data dan model dengan jelas dan tidak dapat diubah, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, ketika data atau model dipanggil, distribusi hadiah akan otomatis dipicu, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat menilai kinerja model melalui voting token, berpartisipasi dalam perumusan dan iterasi aturan, serta menyempurnakan struktur pemerintahan terdesentralisasi.

OpenLedger Kedalaman Riset: Membangun Ekonomi Agensi yang Didorong Data dan Dapat Digabungkan dengan Model Menggunakan OP Stack+EigenDA

II. Ringkasan Proyek | Visi AI Chain OpenLedger

OpenLedger adalah salah satu proyek AI blockchain yang saat ini fokus pada mekanisme insentif data dan model. Ia pertama kali mengusulkan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasional AI yang adil, transparan, dan dapat dikombinasikan, untuk mendorong kolaborasi antara kontributor data, pengembang model, dan pembangun aplikasi AI di satu platform, serta memperoleh pendapatan on-chain berdasarkan kontribusi nyata.

OpenLedger menyediakan rantai tertutup penuh dari "penyedia data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti sebagai berikut:

  • Model Factory: Tanpa perlu pemrograman, dapat menggunakan LoRA untuk penyesuaian dan pelatihan model kustom berbasis LLM sumber terbuka;
  • OpenLoRA: Mendukung co-existence ribuan model, pemuatan dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penyebaran;
  • PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui catatan panggilan di blockchain;
  • Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan divalidasi melalui kolaborasi komunitas;
  • Platform Proposal Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dapat dipanggil, dan dapat dibayar.

Melalui modul di atas, OpenLedger telah membangun "infrastruktur ekonomi agen cerdas" yang didorong oleh data dan dapat digabungkan modelnya, mendorong on-chain dari rantai nilai AI.

Dan dalam adopsi teknologi blockchain, OpenLedger membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi dengan OP Stack + EigenDA sebagai dasar untuk model AI.

  • Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah untuk eksekusi;
  • Menyelesaikan di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
  • Kompatibel EVM: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
  • EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, memastikan verifikasi data.

Dibandingkan dengan NEAR yang lebih berfokus pada lapisan dasar, menekankan pada kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih fokus pada pembangunan rantai khusus AI yang diarahkan pada insentif data dan model, berkomitmen untuk membuat pengembangan dan pemanggilan model dapat dilacak, dapat digabungkan, dan memiliki nilai yang berkelanjutan di atas rantai. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan hosting model ala HuggingFace, penagihan penggunaan ala Stripe, dan antarmuka komposabel di atas rantai ala Infura, mendorong jalur realisasi "model sebagai aset".

OpenLedgerKedalaman研报:以OP Stack+EigenDA为底座,构建一个 data-driven, model-composable 智能体 ekonomi

Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger

3.1 Model Factory, tanpa kode model pabrik

ModelFactory adalah platform penyesuaian model bahasa besar (LLM) yang ada di ekosistem OpenLedger. Berbeda dengan kerangka penyesuaian tradisional, ModelFactory menyediakan antarmuka grafis murni, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat menyesuaikan model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:

  • Kontrol Akses Data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
  • Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), konfigurasi hiperparameter melalui GUI.
  • Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
  • Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau panggilan berbagi ekosistem.
  • Antarmuka verifikasi interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian langsung kemampuan tanya jawab model.
  • RAG menghasilkan jejak: Menjawab dengan referensi sumber, meningkatkan kepercayaan dan kemampuan audit.

Arsitektur sistem Model Factory terdiri dari enam modul, mencakup otentikasi identitas, hak akses data, penyesuaian model, penilaian penerapan, dan pelacakan RAG, menciptakan platform layanan model terintegrasi yang aman dan terkendali, interaktif secara real-time, serta dapat menghasilkan pendapatan yang berkelanjutan.

ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:

  • Seri LLaMA: Ekosistem yang paling luas, komunitas yang aktif, dan kinerja umum yang kuat, adalah salah satu model dasar sumber terbuka yang paling utama saat ini.
  • Mistral: Arsitektur efisien, kinerja inferensi yang sangat baik, cocok untuk skenario dengan penyebaran yang fleksibel dan sumber daya terbatas.
  • Qwen: Diproduksi oleh Alibaba, menunjukkan kinerja yang sangat baik dalam tugas berbahasa Mandarin, memiliki kemampuan yang kuat, cocok sebagai pilihan utama bagi pengembang domestik.
  • ChatGLM: Efek percakapan dalam bahasa Mandarin menonjol, cocok untuk layanan pelanggan vertikal dan skenario lokalisasi.
  • Deepseek: Unggul dalam pengkodean dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
  • Gemma: Model ringan yang diluncurkan oleh Google, memiliki struktur yang jelas, mudah untuk dipahami dan dieksperimen.
  • Falcon: Pernah menjadi tolok ukur kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi tingkat aktivitas komunitas telah menurun.
  • BLOOM: Dukungan multi-bahasa cukup kuat, tetapi kinerja inferensi relatif lemah, cocok untuk penelitian cakupan bahasa.
  • GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk penggunaan implementasi nyata.

Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan nyata dari penyebaran on-chain (biaya inferensi, adaptasi RAG, kompatibilitas LoRA, lingkungan EVM).

Model Factory sebagai alat tanpa kode, semua model dilengkapi dengan mekanisme pembuktian kontribusi, memastikan hak-hak kontributor data dan pengembang model, memiliki kelebihan ambang rendah, dapat dimonetisasi dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:

  • Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi model, distribusi, dan pendapatan;
  • Untuk platform: membentuk sirkulasi dan ekosistem kombinasi aset model;
  • Untuk pengguna: Anda dapat menggabungkan model atau Agen seperti memanggil API.

OpenLedger Kedalaman Riset: Membangun Ekonomi Agen yang Didorong Data dan Dapat Dikombinasikan dengan Model Berbasis OP Stack+EigenDA

3.2 OpenLoRA, aset on-chain dari model fine-tuning

LoRA (Low-Rank Adaptation) adalah metode fine-tuning parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rendah-rank" ke dalam model besar yang telah dilatih sebelumnya, tanpa memodifikasi parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan fine-tuning. Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Parameter yang efisien, pelatihan yang cepat, dan penerapan yang fleksibel, menjadikannya metode fine-tuning utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.

OpenLoRA adalah kerangka inferensi ringan yang dirancang oleh OpenLedger khusus untuk penyebaran multi-model dan berbagi sumber daya. Tujuan utamanya adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini seperti biaya tinggi, rendahnya pemanfaatan kembali, dan pemborosan sumber daya GPU, serta mendorong pelaksanaan "AI yang dapat dibayar" (Payable AI).

Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, pengalihan permintaan dan aspek-aspek kunci lainnya, untuk mencapai kemampuan penyebaran dan pemanggilan banyak model yang efisien dan biaya rendah:

  • Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dikelola di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori, menghemat sumber daya.
  • Model Hosting dan Layer Penggabungan Adapter (Model Hosting & Adapter Merging Layer): Semua model fine-tuning berbagi model dasar (base model), saat inferensi LoRA adapter digabungkan secara dinamis, mendukung beberapa adapter untuk inferensi gabungan (ensemble), meningkatkan kinerja.
  • Mesin Inferensi (Inference Engine): Mengintegrasikan berbagai teknologi optimasi CUDA seperti Flash-Attention, Paged-Attention, dan SGMV.
  • Modul Router Permintaan dan Streaming Token (Request Router & Token Streaming): Mengarahkan secara dinamis ke adapter yang tepat berdasarkan model yang diperlukan dalam permintaan, dengan mewujudkan generasi streaming tingkat token melalui optimisasi kernel.

Proses inferensi OpenLoRA termasuk dalam layanan model "matang dan umum" di tingkat teknis, sebagai berikut:

  • Memuat model dasar: Sistem memuat sebelumnya model dasar seperti LLaMA 3, Mistral dan lain-lain
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 6
  • Bagikan
Komentar
0/400
BtcDailyResearchervip
· 21jam yang lalu
Hmm? Satu lagi AI piring
Lihat AsliBalas0
WalletDetectivevip
· 07-15 03:19
Hanya omong kosong kota yang disebutkan dalam artikel ini
Lihat AsliBalas0
rugpull_survivorvip
· 07-15 03:16
Jangan berpura-pura, ini hanya tentang memperdagangkan Daya Komputasi Token.
Lihat AsliBalas0
AirdropFatiguevip
· 07-15 03:16
Lagi-lagi menciptakan konsep baru untuk menghalau pemula
Lihat AsliBalas0
OnchainDetectivevip
· 07-15 03:06
Sekali lagi datang ekonomi model yy
Lihat AsliBalas0
YieldChaservip
· 07-15 03:06
Apa yang bisa dilakukan agen pintar ini secara transparan?
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)