✈️ Gate 廣場【Gate Travel 旅行分享官召集令】
廣場家人們注意啦!Gate Travel 已經上線~ 機票+酒店一站式預訂,還能用加密貨幣直接付款 💸
所以說,你的錢包和你的旅行夢終於可以談戀愛了 😎 💕
現在廣場開啓 #GateTravel旅行分享官# 活動,邀你來秀旅行靈感 & 使用體驗!💡
🌴 參與方式:
1️⃣ 在【廣場】帶話題 #Gate Travel 旅行分享官# 發帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小島 or 網紅打卡點都行)
講講用 Gate Travel 訂票/訂酒店的奇妙體驗
放放省錢/使用攻略,讓大家省到笑出聲
或者直接寫一篇輕鬆的 Gate Travel 旅行小故事
📦 獎勵安排,走起:
🏆 優秀分享官(1 名):Gate 旅行露營套裝
🎖️ 熱門分享官(3 名):Gate 旅行速乾套裝
🎉 幸運參與獎(5 名):Gate 國際米蘭旅行小夜燈
*海外用戶 旅行露營套裝 以 $100 合約體驗券,旅行速乾套裝 以 $50 合約體驗券折算,國際米蘭旅行小夜燈以 $30合約體驗券折算。
📌 優質內容將有機會得到官方帳號轉發翻牌提升社區曝光!
📌 帖文將綜合互動量、內容豐富度和創意評分。禁止小號刷貼,原創分享更容易脫穎而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
OpenLedger構建智能體經濟:基於OP Stack和EigenDA的數據驅動模型平台
OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟
一、引言 | Crypto AI 的模型層躍遷
數據、模型與算力是 AI 基礎設施的三大核心要素,類比燃料(數據)、引擎(模型)、能源(算力)缺一不可。與傳統 AI 行業的基礎設施演進路徑類似,Crypto AI 領域也經歷了相似的階段。2024 年初,市場一度被去中心化 GPU 項目所主導,普遍強調「拼算力」的粗放式增長邏輯。而進入 2025 年後,行業關注點逐步上移至模型與數據層,標志着 Crypto AI 正從底層資源競爭過渡到更具可持續性與應用價值的中層構建。
通用大模型(LLM)vs 特化模型(SLM)
傳統的大型語言模型(LLM)訓練高度依賴大規模數據集與復雜的分布式架構,參數規模動輒 70B~500B,訓練一次的成本常高達數百萬美元。而 SLM(Specialized Language Model)作爲一種可復用基礎模型的輕量微調範式,通常基於開源模型,結合少量高質量專業數據及 LoRA 等技術,快速構建具備特定領域知識的專家模型,顯著降低訓練成本與技術門檻。
值得注意的是,SLM 並不會被集成進 LLM 權重中,而是通過 Agent 架構調用、插件系統動態路由、LoRA 模塊熱插拔、RAG(檢索增強生成)等方式與 LLM 協作運行。這一架構既保留了 LLM 的廣覆蓋能力,又通過精調模塊增強了專業表現,形成了高度靈活的組合式智能系統。
Crypto AI 在模型層的價值與邊界
Crypto AI 項目本質上難以直接提升大語言模型(LLM)的核心能力,核心原因在於
然而,在開源基礎模型之上,Crypto AI 項目仍可通過精調特化語言模型(SLM),並結合 Web3 的可驗證性與激勵機制實現價值延伸。作爲 AI 產業鏈的「週邊接口層」,體現於兩個核心方向:
AI 模型類型分類與 區塊鏈適用性分析
由此可見,模型類 Crypto AI 項目的可行落點主要集中在小型 SLM 的輕量化精調、RAG 架構的鏈上數據接入與驗證、以及 Edge 模型的本地部署與激勵上。結合區塊鏈的可驗證性與代幣機制,Crypto 能爲這些中低資源模型場景提供特有價值,形成 AI「接口層」的差異化價值。
基於數據與模型的區塊鏈 AI 鏈,可對每一條數據和模型的貢獻來源進行清晰、不可篡改的上鏈記錄,顯著提升數據可信度與模型訓練的可溯性。同時,通過智能合約機制,在數據或模型被調用時自動觸發獎勵分發,將 AI 行爲轉化爲可計量、可交易的代幣化價值,構建可持續的激勵體系。此外,社區用戶還可通過代幣投票評估模型性能、參與規則制定與迭代,完善去中心化治理架構。
二、項目概述 | OpenLedger 的 AI 鏈願景
OpenLedger 是當前市場上爲數不多專注於數據與模型激勵機制的區塊鏈 AI 項目。它率先提出「Payable AI」的概念,旨在構建一個公平、透明且可組合的 AI 運行環境,激勵數據貢獻者、模型開發者與 AI 應用構建者在同一平台協作,並根據實際貢獻獲得鏈上收益。
OpenLedger 提供了從「數據提供」到「模型部署」再到「調用分潤」的全鏈條閉環,其核心模塊包括:
通過以上模塊,OpenLedger 構建了一個數據驅動、模型可組合的「智能體經濟基礎設施」,推動 AI 價值鏈的鏈上化。
而在區塊鏈技術採用上,OpenLedger 以 OP Stack + EigenDA 爲底座,爲 AI 模型構建了高性能、低成本、可驗證的數據與合約運行環境。
相比於 NEAR 這類更偏底層、主打數據主權與 「AI Agents on BOS」 架構的通用型 AI 鏈,OpenLedger 更專注於構建面向數據與模型激勵的 AI 專用鏈,致力於讓模型的開發與調用在鏈上實現可追溯、可組合與可持續的價值閉環。它是 Web3 世界中的模型激勵基礎設施,結合模型托管、使用計費與鏈上可組合接口,推動「模型即資產」的實現路徑。
三、OpenLedger 的核心組件與技術架構
3.1 Model Factory,無需代碼模型工廠
ModelFactory 是 OpenLedger 生態下的一個大型語言模型(LLM)微調平台。與傳統微調框架不同,ModelFactory 提供純圖形化界面操作,無需命令行工具或 API 集成。用戶可以基於在 OpenLedger 上完成授權與審核的數據集,對模型進行微調。實現了數據授權、模型訓練與部署的一體化工作流,其核心流程包括:
Model Factory 系統架構包含六大模塊,貫穿身分認證、數據權限、模型微調、評估部署與 RAG 溯源,打造安全可控、實時交互、可持續變現的一體化模型服務平台。
ModelFactory 目前支持的大語言模型能力簡表如下:
雖然 OpenLedger 的模型組合並未包含最新的高性能 MoE 模型或多模態模型,但其策略並不落伍,而是基於鏈上部署的現實約束(推理成本、RAG 適配、LoRA 兼容、EVM 環境)所做出的「實用優先」配置。
Model Factory 作爲無代碼工具鏈,所有模型都內置了貢獻證明機制,確保數據貢獻者和模型開發者的權益,具有低門檻、可變現與可組合性的優點,與傳統模型開發工具相比較:
3.2 OpenLoRA,微調模型的鏈上資產化
LoRA(Low-Rank Adaptation)是一種高效的參數微調方法,通過在預訓練大模型中插入「低秩矩陣」來學習新任務,而不修改原模型參數,從而大幅降低訓練成本和存儲需求。傳統大語言模型(如 LLaMA、GPT-3)通常擁有數十億甚至千億參數。要將它們用於特定任務(如法律問答、醫療問診),就需要進行微調(fine-tuning)。LoRA 的核心策略是:「凍結原始大模型的參數,只訓練插入的新參數矩陣。」,其參數高效、訓練快速、部署靈活,是當前最適合 Web3 模型部署與組合調用的主流微調方法。
OpenLoRA 是 OpenLedger 構建的一套專爲多模型部署與資源共享而設計的輕量級推理框架。它核心目標是解決當前 AI 模型部署中常見的高成本、低復用、GPU 資源浪費等問題,推動「可支付 AI」(Payable AI)的落地執行。
OpenLoRA 系統架構核心組件,基於模塊化設計,覆蓋模型存儲、推理執行、請求路由等關鍵環節,實現高效、低成本的多模型部署與調用能力: