Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI
Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Tương tự như lộ trình tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường từng bị các dự án GPU phi tập trung chi phối, nhấn mạnh logic tăng trưởng thô kiểu "đấu sức mạnh tính toán". Tuy nhiên, bước vào năm 2025, điểm quan tâm của ngành dần dần nâng cao lên tầng mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ sở hạ tầng sang xây dựng trung tầng có tính bền vững và giá trị ứng dụng hơn.
Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)
Mô hình ngôn ngữ lớn truyền thống (LLM) thường phụ thuộc vào các tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, với quy mô tham số từ 70B đến 500B, chi phí cho một lần đào tạo thường lên tới hàng triệu đô la. Trong khi đó, SLM (Mô hình ngôn ngữ chuyên biệt) như một kiểu mô hình cơ bản có thể tái sử dụng với phương pháp tinh chỉnh nhẹ, thường dựa trên các mô hình mã nguồn mở, kết hợp với một lượng dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, để nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong các lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản kỹ thuật.
Điều đáng chú ý là SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hoạt động cùng LLM thông qua kiến trúc Agent, hệ thống plugin định tuyến động, khả năng cắm nóng của mô-đun LoRA, và RAG (tạo ra nâng cao bằng tìm kiếm). Kiến trúc này vừa giữ lại khả năng bao phủ rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, hình thành một hệ thống thông minh kết hợp rất linh hoạt.
Giá trị và ranh giới của Crypto AI ở tầng mô hình
Dự án Crypto AI về cơ bản khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), nguyên nhân cốt lõi là
Rào cản kỹ thuật quá cao: Quy mô dữ liệu, tài nguyên tính toán và khả năng kỹ thuật cần thiết để đào tạo Mô hình Nền tảng là vô cùng lớn, hiện tại chỉ có các công ty công nghệ lớn mới có khả năng tương ứng.
Hạn chế của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ sở chính thống đã được mở mã, nhưng yếu tố then chốt thực sự thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng. Các dự án trên chuỗi có không gian tham gia hạn chế ở cấp mô hình cốt lõi.
Tuy nhiên, trên nền tảng mô hình cơ bản mã nguồn mở, dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ chuyên biệt (SLM), kết hợp với tính khả chứng và cơ chế khuyến khích của Web3. Là "tầng giao diện xung quanh" của chuỗi ngành công nghiệp AI, thể hiện ở hai hướng cốt lõi:
Lớp xác thực đáng tin cậy: Qua việc ghi lại trên chuỗi đường dẫn tạo ra mô hình, đóng góp dữ liệu và tình trạng sử dụng, tăng cường khả năng truy xuất nguồn gốc và khả năng chống giả mạo của đầu ra AI.
Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích việc tải dữ liệu lên, gọi mô hình, thực hiện hành động của tác nhân (Agent), xây dựng chu trình tích cực cho việc đào tạo và phục vụ mô hình.
Phân loại loại mô hình AI và phân tích tính thích hợp với blockchain
Như vậy, có thể thấy rằng, điểm khả thi của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ cho SLM nhỏ, việc truy cập và xác minh dữ liệu chuỗi trên kiến trúc RAG, cũng như việc triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị độc đáo cho các kịch bản mô hình tài nguyên trung bình và thấp, hình thành giá trị khác biệt cho "tầng giao diện" AI.
Dựa trên dữ liệu và mô hình của chuỗi khối AI, có thể ghi lại rõ ràng và không thể thay đổi nguồn gốc đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc đào tạo mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, sẽ tự động kích hoạt việc phân phối phần thưởng, biến hành vi AI thành giá trị token hóa có thể đo lường và giao dịch, xây dựng một hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng cũng có thể thông qua việc bỏ phiếu bằng token để đánh giá hiệu suất mô hình, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tóm tắt dự án | Tầm nhìn chuỗi AI của OpenLedger
OpenLedger là một trong số ít dự án AI blockchain trên thị trường hiện nay tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó tiên phong đưa ra khái niệm «Payable AI», nhằm xây dựng một môi trường hoạt động AI công bằng, minh bạch và có thể kết hợp, khuyến khích những người đóng góp dữ liệu, các nhà phát triển mô hình và những người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận được lợi nhuận trên chuỗi dựa trên đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín toàn bộ từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:
Model Factory:Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
OpenLoRA: Hỗ trợ hàng nghìn mô hình đồng thời, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
PoA (Proof of Attribution): Thực hiện đo lường đóng góp và phân phối thưởng thông qua ghi nhận gọi trên chuỗi;
Datanets:Mạng dữ liệu có cấu trúc hướng đến các cảnh huống theo chiều dọc, được xây dựng và xác thực bởi sự hợp tác của cộng đồng;
Nền tảng đề xuất mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "cơ sở hạ tầng kinh tế tác nhân thông minh" có tính chất dữ liệu và có thể kết hợp các mô hình, thúc đẩy việc chuỗi hóa giá trị AI.
Và trong việc áp dụng công nghệ blockchain, OpenLedger đã sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp và có thể xác minh cho các mô hình AI.
Xây dựng trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ thực hiện với thông lượng cao và chi phí thấp;
Thanh toán trên mạng chính Ethereum: Đảm bảo an toàn giao dịch và toàn vẹn tài sản;
Tương thích EVM: Giúp các nhà phát triển nhanh chóng triển khai và mở rộng trên nền tảng Solidity;
EigenDA cung cấp hỗ trợ khả năng sử dụng dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo tính xác minh của dữ liệu.
So với NEAR, một loại chuỗi AI tổng quát thiên về tầng dưới, nhấn mạnh quyền sở hữu dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger tập trung hơn vào việc xây dựng chuỗi AI chuyên dụng hướng đến dữ liệu và mô hình khuyến khích, nhằm mục đích thực hiện một vòng giá trị có thể truy xuất, có thể kết hợp và bền vững cho việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp lưu trữ mô hình, tính phí sử dụng và giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường thực hiện "mô hình như tài sản".
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
Nhà máy mô hình 3.1, nhà máy mô hình không cần mã
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) dưới hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa thuần túy để thao tác, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên các tập dữ liệu đã được cấp phép và kiểm tra trên OpenLedger. Đã thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, quy trình cốt lõi bao gồm:
Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp xem xét và phê duyệt, dữ liệu tự động kết nối vào giao diện huấn luyện mô hình.
Lựa chọn và cấu hình mô hình: Hỗ trợ LLM phổ biến, cấu hình siêu tham số qua GUI.
Tinh chỉnh nhẹ: Tích hợp động cơ LoRA / QLoRA, hiển thị tiến độ đào tạo theo thời gian thực.
Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp, hỗ trợ xuất bản triển khai hoặc gọi chia sẻ hệ sinh thái.
Giao diện xác thực tương tác: Cung cấp giao diện trò chuyện, thuận tiện cho việc kiểm tra trực tiếp khả năng hỏi đáp của mô hình.
RAG tạo nguồn gốc: Trả lời có trích dẫn nguồn, tăng cường độ tin cậy và khả năng kiểm toán.
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, xuyên suốt xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và nguồn gốc RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có kiểm soát, tương tác thời gian thực và có thể sinh lợi bền vững.
Bảng tóm tắt khả năng mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Dòng LLaMA: Hệ sinh thái rộng rãi nhất, cộng đồng sôi động, hiệu suất tổng quát mạnh mẽ, là một trong những mô hình cơ sở mã nguồn mở phổ biến nhất hiện nay.
Mistral:Kiến trúc hiệu quả, hiệu suất suy diễn tuyệt vời, phù hợp với các tình huống triển khai linh hoạt và tài nguyên hạn chế.
Qwen: Sản phẩm của Alibaba, thể hiện tốt trong các nhiệm vụ tiếng Trung, có khả năng tổng hợp mạnh mẽ, phù hợp cho các nhà phát triển trong nước lựa chọn hàng đầu.
ChatGLM: Hiệu quả đối thoại bằng tiếng Trung nổi bật, phù hợp cho dịch vụ khách hàng theo lĩnh vực và các tình huống địa phương.
Deepseek:Thể hiện ưu thế trong việc tạo mã và suy diễn toán học, phù hợp với công cụ hỗ trợ phát triển thông minh.
Gemma: Mô hình nhẹ được Google phát triển, có cấu trúc rõ ràng, dễ dàng để bắt đầu và thử nghiệm nhanh chóng.
Falcon:Từng là tiêu chuẩn hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm so sánh, nhưng độ hoạt động của cộng đồng đã giảm.
BLOOM: Hỗ trợ đa ngôn ngữ khá mạnh, nhưng hiệu suất suy luận yếu, phù hợp cho nghiên cứu bao phủ ngôn ngữ.
GPT-2: Mô hình cổ điển sớm, chỉ phù hợp cho mục đích giảng dạy và xác minh, không nên sử dụng trong triển khai thực tế.
Mặc dù sự kết hợp mô hình của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hay mô hình đa phương thức, nhưng chiến lược của nó không lạc hậu, mà là cấu hình "ưu tiên thực dụng" dựa trên những ràng buộc thực tế của việc triển khai trên chuỗi (chi phí suy diễn, thích ứng RAG, tương thích LoRA, môi trường EVM).
Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có ưu điểm về rào cản thấp, khả năng kiếm tiền và tính khả kết hợp, so với các công cụ phát triển mô hình truyền thống:
Đối với nhà phát triển: Cung cấp lộ trình hoàn chỉnh cho việc ươm mầm, phân phối và thu nhập mô hình;
Đối với nền tảng: hình thành lưu thông tài sản mô hình và hệ sinh thái kết hợp;
Đối với người sử dụng: có thể kết hợp sử dụng mô hình hoặc Agent như gọi API.
3.2 OpenLoRA, tài sản hóa chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận bậc thấp" vào mô hình lớn đã được huấn luyện trước để học các nhiệm vụ mới mà không cần sửa đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể, cần phải tinh chỉnh. Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ đào tạo các ma trận tham số mới được chèn vào." Với tính hiệu quả tham số, đào tạo nhanh chóng, và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính phù hợp nhất cho việc triển khai và gọi kết hợp mô hình Web3 hiện nay.
OpenLoRA là một khung suy diễn nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết những vấn đề thường gặp trong việc triển khai mô hình AI hiện tại như chi phí cao, khả năng tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể thanh toán" (Payable AI).
OpenLoRA hệ thống kiến trúc các thành phần cốt lõi, dựa trên thiết kế mô-đun, bao phủ lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu và các khâu quan trọng khác, đạt được khả năng triển khai và gọi nhiều mô hình hiệu quả, chi phí thấp:
Mô-đun lưu trữ LoRA Adapter: LoRA adapter đã được tinh chỉnh được lưu trữ trên OpenLedger, cho phép tải theo nhu cầu, tránh việc tải trước tất cả các mô hình vào bộ nhớ đồ họa, tiết kiệm tài nguyên.
Lưu trữ mô hình và lớp kết hợp động: Tất cả các mô hình tinh chỉnh đều chia sẻ mô hình lớn cơ bản, trong quá trình suy diễn, bộ điều hợp LoRA được kết hợp động, hỗ trợ nhiều bộ điều hợp suy diễn kết hợp, nâng cao hiệu suất.
Công cụ suy luận: Tích hợp nhiều công nghệ tối ưu CUDA như Flash-Attention, Paged-Attention, SGMV.
Mô-đun định tuyến yêu cầu và xuất dòng: Định tuyến động đến adapter đúng dựa trên mô hình cần thiết trong yêu cầu, thông qua việc tối ưu hóa lõi để thực hiện việc tạo dòng ở cấp độ token.
Quy trình suy diễn của OpenLoRA thuộc về dịch vụ mô hình "trưởng thành và chung" ở cấp độ kỹ thuật, như sau:
Tải mô hình cơ bản: Hệ thống tải trước mô hình lớn cơ bản
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
12 thích
Phần thưởng
12
6
Chia sẻ
Bình luận
0/400
Rugpull幸存者
· 07-19 11:55
Chiêu này của trí tuệ nhân tạo quen thuộc quá rồi.
Xem bản gốcTrả lời0
GasFeeNightmare
· 07-18 01:52
Mô hình đốt tiền còn không bằng việc trực tiếp giao dịch trong thế giới tiền điện tử.
Xem bản gốcTrả lời0
GateUser-aa7df71e
· 07-18 01:50
Lại kể chuyện chơi đùa với mọi người rồi
Xem bản gốcTrả lời0
ContractCollector
· 07-18 01:49
ai rất bull nhưng đừng rơi vào nhé
Xem bản gốcTrả lời0
BrokenYield
· 07-18 01:46
ugh... một câu chuyện gpu khác sẽ chết như luna thật sự
Xem bản gốcTrả lời0
OnChainDetective
· 07-18 01:39
hmm... mẫu gợi ý một người ủng hộ gpt/ai khác nhưng *kiểm tra dữ liệu lịch sử* hạ tầng op stack có thể là hợp pháp không nói dối
OpenLedger Độ sâu phân tích: Xây dựng cơ sở hạ tầng kinh tế thông minh dựa trên OP Stack và EigenDA
OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Một, Giới thiệu | Sự chuyển mình của tầng mô hình Crypto AI
Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Tương tự như lộ trình tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng đã trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường từng bị các dự án GPU phi tập trung chi phối, nhấn mạnh logic tăng trưởng thô kiểu "đấu sức mạnh tính toán". Tuy nhiên, bước vào năm 2025, điểm quan tâm của ngành dần dần nâng cao lên tầng mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ sở hạ tầng sang xây dựng trung tầng có tính bền vững và giá trị ứng dụng hơn.
Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)
Mô hình ngôn ngữ lớn truyền thống (LLM) thường phụ thuộc vào các tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, với quy mô tham số từ 70B đến 500B, chi phí cho một lần đào tạo thường lên tới hàng triệu đô la. Trong khi đó, SLM (Mô hình ngôn ngữ chuyên biệt) như một kiểu mô hình cơ bản có thể tái sử dụng với phương pháp tinh chỉnh nhẹ, thường dựa trên các mô hình mã nguồn mở, kết hợp với một lượng dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, để nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong các lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản kỹ thuật.
Điều đáng chú ý là SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hoạt động cùng LLM thông qua kiến trúc Agent, hệ thống plugin định tuyến động, khả năng cắm nóng của mô-đun LoRA, và RAG (tạo ra nâng cao bằng tìm kiếm). Kiến trúc này vừa giữ lại khả năng bao phủ rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, hình thành một hệ thống thông minh kết hợp rất linh hoạt.
Giá trị và ranh giới của Crypto AI ở tầng mô hình
Dự án Crypto AI về cơ bản khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), nguyên nhân cốt lõi là
Tuy nhiên, trên nền tảng mô hình cơ bản mã nguồn mở, dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh các mô hình ngôn ngữ chuyên biệt (SLM), kết hợp với tính khả chứng và cơ chế khuyến khích của Web3. Là "tầng giao diện xung quanh" của chuỗi ngành công nghiệp AI, thể hiện ở hai hướng cốt lõi:
Phân loại loại mô hình AI và phân tích tính thích hợp với blockchain
Như vậy, có thể thấy rằng, điểm khả thi của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ cho SLM nhỏ, việc truy cập và xác minh dữ liệu chuỗi trên kiến trúc RAG, cũng như việc triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị độc đáo cho các kịch bản mô hình tài nguyên trung bình và thấp, hình thành giá trị khác biệt cho "tầng giao diện" AI.
Dựa trên dữ liệu và mô hình của chuỗi khối AI, có thể ghi lại rõ ràng và không thể thay đổi nguồn gốc đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc đào tạo mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, sẽ tự động kích hoạt việc phân phối phần thưởng, biến hành vi AI thành giá trị token hóa có thể đo lường và giao dịch, xây dựng một hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng cũng có thể thông qua việc bỏ phiếu bằng token để đánh giá hiệu suất mô hình, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tóm tắt dự án | Tầm nhìn chuỗi AI của OpenLedger
OpenLedger là một trong số ít dự án AI blockchain trên thị trường hiện nay tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó tiên phong đưa ra khái niệm «Payable AI», nhằm xây dựng một môi trường hoạt động AI công bằng, minh bạch và có thể kết hợp, khuyến khích những người đóng góp dữ liệu, các nhà phát triển mô hình và những người xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận được lợi nhuận trên chuỗi dựa trên đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín toàn bộ từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi phân chia lợi nhuận", các mô-đun cốt lõi của nó bao gồm:
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "cơ sở hạ tầng kinh tế tác nhân thông minh" có tính chất dữ liệu và có thể kết hợp các mô hình, thúc đẩy việc chuỗi hóa giá trị AI.
Và trong việc áp dụng công nghệ blockchain, OpenLedger đã sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp và có thể xác minh cho các mô hình AI.
So với NEAR, một loại chuỗi AI tổng quát thiên về tầng dưới, nhấn mạnh quyền sở hữu dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger tập trung hơn vào việc xây dựng chuỗi AI chuyên dụng hướng đến dữ liệu và mô hình khuyến khích, nhằm mục đích thực hiện một vòng giá trị có thể truy xuất, có thể kết hợp và bền vững cho việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp lưu trữ mô hình, tính phí sử dụng và giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường thực hiện "mô hình như tài sản".
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
Nhà máy mô hình 3.1, nhà máy mô hình không cần mã
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) dưới hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa thuần túy để thao tác, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên các tập dữ liệu đã được cấp phép và kiểm tra trên OpenLedger. Đã thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, quy trình cốt lõi bao gồm:
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, xuyên suốt xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và nguồn gốc RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có kiểm soát, tương tác thời gian thực và có thể sinh lợi bền vững.
Bảng tóm tắt khả năng mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Mặc dù sự kết hợp mô hình của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hay mô hình đa phương thức, nhưng chiến lược của nó không lạc hậu, mà là cấu hình "ưu tiên thực dụng" dựa trên những ràng buộc thực tế của việc triển khai trên chuỗi (chi phí suy diễn, thích ứng RAG, tương thích LoRA, môi trường EVM).
Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có ưu điểm về rào cản thấp, khả năng kiếm tiền và tính khả kết hợp, so với các công cụ phát triển mô hình truyền thống:
3.2 OpenLoRA, tài sản hóa chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận bậc thấp" vào mô hình lớn đã được huấn luyện trước để học các nhiệm vụ mới mà không cần sửa đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể, cần phải tinh chỉnh. Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ đào tạo các ma trận tham số mới được chèn vào." Với tính hiệu quả tham số, đào tạo nhanh chóng, và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính phù hợp nhất cho việc triển khai và gọi kết hợp mô hình Web3 hiện nay.
OpenLoRA là một khung suy diễn nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết những vấn đề thường gặp trong việc triển khai mô hình AI hiện tại như chi phí cao, khả năng tái sử dụng thấp, lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể thanh toán" (Payable AI).
OpenLoRA hệ thống kiến trúc các thành phần cốt lõi, dựa trên thiết kế mô-đun, bao phủ lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu và các khâu quan trọng khác, đạt được khả năng triển khai và gọi nhiều mô hình hiệu quả, chi phí thấp:
Quy trình suy diễn của OpenLoRA thuộc về dịch vụ mô hình "trưởng thành và chung" ở cấp độ kỹ thuật, như sau: