📢 Gate广场 #NERO发帖挑战# 秀观点赢大奖活动火热开启!
Gate NERO生态周来袭!发帖秀出NERO项目洞察和活动实用攻略,瓜分30,000NERO!
💰️ 15位优质发帖用户 * 2,000枚NERO每人
如何参与:
1️⃣ 调研NERO项目
对NERO的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与NERO生态周相关活动,并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
NERO热门活动(帖文需附以下活动链接):
NERO Chain (NERO) 生态周:Gate 已上线 NERO 现货交易,为回馈平台用户,HODLer Airdrop、Launchpool、CandyDrop、余币宝已上线 NERO,邀您体验。参与攻略见公告:https://www.gate.com/announcements/article/46284
高质量帖子Tips:
教程越详细、图片越直观、互动量越高,获奖几率越大!
市场见解独到、真实参与经历、有带新互动者,评选将优先考虑。
帖子需原创,字数不少于250字,且需获得至少3条有效互动
OpenLedger打造新一代AI链 构建数据驱动智能体经济
OpenLedger深度研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
一、引言 | Crypto AI 的模型层跃迁
数据、模型与算力是AI基础设施的三大核心要素,类比燃料(数据)、引擎(模型)、能源(算力)缺一不可。与传统AI行业的基础设施演进路径类似,Crypto AI领域也经历了相似的阶段。2024年初,市场一度被去中心化GPU项目所主导(Akash、Render、io.net等),普遍强调"拼算力"的粗放式增长逻辑。而进入2025年后,行业关注点逐步上移至模型与数据层,标志着Crypto AI正从底层资源竞争过渡到更具可持续性与应用价值的中层构建。
通用大模型(LLM)vs 特化模型(SLM)
传统的大型语言模型(LLM)训练高度依赖大规模数据集与复杂的分布式架构,参数规模动辄70B~500B,训练一次的成本常高达数百万美元。而SLM(Specialized Language Model)作为一种可复用基础模型的轻量微调范式,通常基于LLaMA、Mistral、DeepSeek等开源模型,结合少量高质量专业数据及LoRA等技术,快速构建具备特定领域知识的专家模型,显著降低训练成本与技术门槛。
值得注意的是,SLM并不会被集成进LLM权重中,而是通过Agent架构调用、插件系统动态路由、LoRA模块热插拔、RAG(检索增强生成)等方式与LLM协作运行。这一架构既保留了LLM的广覆盖能力,又通过精调模块增强了专业表现,形成了高度灵活的组合式智能系统。
Crypto AI 在模型层的价值与边界
Crypto AI项目本质上难以直接提升大语言模型(LLM)的核心能力,核心原因在于
然而,在开源基础模型之上,Crypto AI项目仍可通过精调特化语言模型(SLM),并结合Web3的可验证性与激励机制实现价值延伸。作为AI产业链的"周边接口层",体现于两个核心方向:
AI 模型类型分类与 区块链适用性分析
由此可见,模型类Crypto AI项目的可行落点主要集中在小型SLM的轻量化精调、RAG架构的链上数据接入与验证、以及Edge模型的本地部署与激励上。结合区块链的可验证性与代币机制,Crypto能为这些中低资源模型场景提供特有价值,形成AI"接口层"的差异化价值。
基于数据与模型的区块链AI链,可对每一条数据和模型的贡献来源进行清晰、不可篡改的上链记录,显著提升数据可信度与模型训练的可溯性。同时,通过智能合约机制,在数据或模型被调用时自动触发奖励分发,将AI行为转化为可计量、可交易的代币化价值,构建可持续的激励体系。此外,社区用户还可通过代币投票评估模型性能、参与规则制定与迭代,完善去中心化治理架构。
二、项目概述 | OpenLedger 的 AI 链愿景
OpenLedger是当前市场上为数不多专注于数据与模型激励机制的区块链AI项目。它率先提出"Payable AI"的概念,旨在构建一个公平、透明且可组合的AI运行环境,激励数据贡献者、模型开发者与AI应用构建者在同一平台协作,并根据实际贡献获得链上收益。
OpenLedger提供了从"数据提供"到"模型部署"再到"调用分润"的全链条闭环,其核心模块包括:
通过以上模块,OpenLedger构建了一个数据驱动、模型可组合的"智能体经济基础设施",推动AI价值链的链上化。
而在区块链技术采用上,OpenLedger以OP Stack + EigenDA为底座,为AI模型构建了高性能、低成本、可验证的数据与合约运行环境。
相比于NEAR这类更偏底层、主打数据主权与 "AI Agents on BOS" 架构的通用型AI链,OpenLedger更专注于构建面向数据与模型激励的AI专用链,致力于让模型的开发与调用在链上实现可追溯、可组合与可持续的价值闭环。它是Web3世界中的模型激励基础设施,结合HuggingFace式的模型托管、Stripe式的使用计费与Infura式的链上可组合接口,推动"模型即资产"的实现路径。
三、OpenLedger 的核心组件与技术架构
3.1 Model Factory,无需代码模型工厂
ModelFactory是OpenLedger生态下的一个大型语言模型(LLM)微调平台。与传统微调框架不同,ModelFactory提供纯图形化界面操作,无需命令行工具或API集成。用户可以基于在OpenLedger上完成授权与审核的数据集,对模型进行微调。实现了数据授权、模型训练与部署的一体化工作流,其核心流程包括:
Model Factory系统架构包含六大模块,贯穿身份认证、数据权限、模型微调、评估部署与RAG溯源,打造安全可控、实时交互、可持续变现的一体化模型服务平台。
ModelFactory目前支持的大语言模型能力简表如下:
虽然OpenLedger的模型组合并未包含最新的高性能MoE模型或多模态模型,但其策略并不落伍,而是基于链上部署的现实约束(推理成本、RAG适配、LoRA兼容、EVM环境)所做出的"实用优先"配置。
Model Factory作为无代码工具链,所有模型都内置了贡献证明机制,确保数据贡献者和模型开发者的权益,具有低门槛、可变现与可组合性的优点,与传统模型开发工具相比较:
3.2 OpenLoRA,微调模型的链上资产化
LoRA(Low-Rank Adaptation)是一种高效的参数微调方法,通过在预训练大模型中插入"低秩矩阵"来学习新任务,而不修改原模型参数,从而大幅降低训练成本和存储需求。传统大语言模型(如LLaMA、GPT-3)通常拥有数十亿甚至千亿参数。要将它们用于特定任务(如法律问答、医疗问诊),就需要进行微调(fine-tuning)。LoRA的核心策略是:"冻结原始大模型的参数,只训练插入的新参数矩阵。",其参数高效、训练快速、部署灵活,是当前最适合Web3模型部署与组合调用的主流微调方法。
OpenLoRA是OpenLedger构建的一套专为多模型部署与资源共享而设计的轻量级推理框架。它核心目标是解决当前AI模型部署中常见的高成本、低复用、GPU资源浪费等问题,推动"可支付AI"(Payable AI)的落地执行。
OpenLoRA系统架构核心组件,基于模块化设计,覆盖模型存储、推理执行、请求路由等关键环节,实现高效、低成本的多模型部署与调用能力:
OpenLoRA的推理流程属于技术层面"成熟通用"的模型服务"流程,如下: