穩健,是 Gate 持續增長的核心動力。
真正的成長,不是順風順水,而是在市場低迷時依然堅定前行。我們或許能預判牛熊市的大致節奏,但絕無法精準預測它們何時到來。特別是在熊市週期,才真正考驗一家交易所的實力。
Gate 今天發布了2025年第二季度的報告。作爲內部人,看到這些數據我也挺驚喜的——用戶規模突破3000萬,現貨交易量逆勢環比增長14%,成爲前十交易所中唯一實現雙位數增長的平台,並且登頂全球第二大交易所;合約交易量屢創新高,全球化戰略穩步推進。
更重要的是,穩健並不等於守成,而是在面臨嚴峻市場的同時,還能持續創造新的增長空間。
歡迎閱讀完整報告:https://www.gate.com/zh/announcements/article/46117
OpenLedger打造新一代AI鏈 構建數據驅動智能體經濟
OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟
一、引言 | Crypto AI 的模型層躍遷
數據、模型與算力是AI基礎設施的三大核心要素,類比燃料(數據)、引擎(模型)、能源(算力)缺一不可。與傳統AI行業的基礎設施演進路徑類似,Crypto AI領域也經歷了相似的階段。2024年初,市場一度被去中心化GPU項目所主導(Akash、Render、io.net等),普遍強調"拼算力"的粗放式增長邏輯。而進入2025年後,行業關注點逐步上移至模型與數據層,標志着Crypto AI正從底層資源競爭過渡到更具可持續性與應用價值的中層構建。
通用大模型(LLM)vs 特化模型(SLM)
傳統的大型語言模型(LLM)訓練高度依賴大規模數據集與復雜的分布式架構,參數規模動輒70B~500B,訓練一次的成本常高達數百萬美元。而SLM(Specialized Language Model)作爲一種可復用基礎模型的輕量微調範式,通常基於LLaMA、Mistral、DeepSeek等開源模型,結合少量高質量專業數據及LoRA等技術,快速構建具備特定領域知識的專家模型,顯著降低訓練成本與技術門檻。
值得注意的是,SLM並不會被集成進LLM權重中,而是通過Agent架構調用、插件系統動態路由、LoRA模塊熱插拔、RAG(檢索增強生成)等方式與LLM協作運行。這一架構既保留了LLM的廣覆蓋能力,又通過精調模塊增強了專業表現,形成了高度靈活的組合式智能系統。
Crypto AI 在模型層的價值與邊界
Crypto AI項目本質上難以直接提升大語言模型(LLM)的核心能力,核心原因在於
然而,在開源基礎模型之上,Crypto AI項目仍可通過精調特化語言模型(SLM),並結合Web3的可驗證性與激勵機制實現價值延伸。作爲AI產業鏈的"週邊接口層",體現於兩個核心方向:
AI 模型類型分類與 區塊鏈適用性分析
由此可見,模型類Crypto AI項目的可行落點主要集中在小型SLM的輕量化精調、RAG架構的鏈上數據接入與驗證、以及Edge模型的本地部署與激勵上。結合區塊鏈的可驗證性與代幣機制,Crypto能爲這些中低資源模型場景提供特有價值,形成AI"接口層"的差異化價值。
基於數據與模型的區塊鏈AI鏈,可對每一條數據和模型的貢獻來源進行清晰、不可篡改的上鏈記錄,顯著提升數據可信度與模型訓練的可溯性。同時,通過智能合約機制,在數據或模型被調用時自動觸發獎勵分發,將AI行爲轉化爲可計量、可交易的代幣化價值,構建可持續的激勵體系。此外,社區用戶還可通過代幣投票評估模型性能、參與規則制定與迭代,完善去中心化治理架構。
二、項目概述 | OpenLedger 的 AI 鏈願景
OpenLedger是當前市場上爲數不多專注於數據與模型激勵機制的區塊鏈AI項目。它率先提出"Payable AI"的概念,旨在構建一個公平、透明且可組合的AI運行環境,激勵數據貢獻者、模型開發者與AI應用構建者在同一平台協作,並根據實際貢獻獲得鏈上收益。
OpenLedger提供了從"數據提供"到"模型部署"再到"調用分潤"的全鏈條閉環,其核心模塊包括:
通過以上模塊,OpenLedger構建了一個數據驅動、模型可組合的"智能體經濟基礎設施",推動AI價值鏈的鏈上化。
而在區塊鏈技術採用上,OpenLedger以OP Stack + EigenDA爲底座,爲AI模型構建了高性能、低成本、可驗證的數據與合約運行環境。
相比於NEAR這類更偏底層、主打數據主權與 "AI Agents on BOS" 架構的通用型AI鏈,OpenLedger更專注於構建面向數據與模型激勵的AI專用鏈,致力於讓模型的開發與調用在鏈上實現可追溯、可組合與可持續的價值閉環。它是Web3世界中的模型激勵基礎設施,結合HuggingFace式的模型托管、Stripe式的使用計費與Infura式的鏈上可組合接口,推動"模型即資產"的實現路徑。
三、OpenLedger 的核心組件與技術架構
3.1 Model Factory,無需代碼模型工廠
ModelFactory是OpenLedger生態下的一個大型語言模型(LLM)微調平台。與傳統微調框架不同,ModelFactory提供純圖形化界面操作,無需命令行工具或API集成。用戶可以基於在OpenLedger上完成授權與審核的數據集,對模型進行微調。實現了數據授權、模型訓練與部署的一體化工作流,其核心流程包括:
Model Factory系統架構包含六大模塊,貫穿身分認證、數據權限、模型微調、評估部署與RAG溯源,打造安全可控、實時交互、可持續變現的一體化模型服務平台。
ModelFactory目前支持的大語言模型能力簡表如下:
雖然OpenLedger的模型組合並未包含最新的高性能MoE模型或多模態模型,但其策略並不落伍,而是基於鏈上部署的現實約束(推理成本、RAG適配、LoRA兼容、EVM環境)所做出的"實用優先"配置。
Model Factory作爲無代碼工具鏈,所有模型都內置了貢獻證明機制,確保數據貢獻者和模型開發者的權益,具有低門檻、可變現與可組合性的優點,與傳統模型開發工具相比較:
3.2 OpenLoRA,微調模型的鏈上資產化
LoRA(Low-Rank Adaptation)是一種高效的參數微調方法,通過在預訓練大模型中插入"低秩矩陣"來學習新任務,而不修改原模型參數,從而大幅降低訓練成本和存儲需求。傳統大語言模型(如LLaMA、GPT-3)通常擁有數十億甚至千億參數。要將它們用於特定任務(如法律問答、醫療問診),就需要進行微調(fine-tuning)。LoRA的核心策略是:"凍結原始大模型的參數,只訓練插入的新參數矩陣。",其參數高效、訓練快速、部署靈活,是當前最適合Web3模型部署與組合調用的主流微調方法。
OpenLoRA是OpenLedger構建的一套專爲多模型部署與資源共享而設計的輕量級推理框架。它核心目標是解決當前AI模型部署中常見的高成本、低復用、GPU資源浪費等問題,推動"可支付AI"(Payable AI)的落地執行。
OpenLoRA系統架構核心組件,基於模塊化設計,覆蓋模型存儲、推理執行、請求路由等關鍵環節,實現高效、低成本的多模型部署與調用能力:
OpenLoRA的推理流程屬於技術層面"成熟通用"的模型服務"流程,如下: