Binance Square

0xjacobzhao

Crypto x AI | ex-Crypto VC | ENTJ/INTJ
实盘交易
低频交易者
5.8 个月
1 关注
18 粉丝
15 点赞
8 分享
内容
投资组合
--
翻译
Noya.ai: Agents in Prediction MarketsAuthor: 0xjacobzhao | https://linktr.ee/0xjacobzhao In our previous Crypto AI series research reports, we have consistently emphasized the view that the most practical application scenarios in the current crypto field are mainly concentrated in stablecoin payments and DeFi, while Agents are the key interface for the AI industry facing users. Therefore, in the trend of Crypto and AI integration, the two most valuable paths are: AgentFi, based on existing mature DeFi protocols (basic strategies like lending and liquidity mining, as well as advanced strategies like Swap, Pendle PT, and funding rate arbitrage) in the short term; and Agent Payment, centering on stablecoin settlement and relying on protocols such as ACP/AP2/x402/ERC-8004 in the medium to long term. Prediction markets have become an undeniable new industry trend in 2025, with their total annual trading volume surging from approximately $9 billion in 2024 to over $40 billion in 2025, achieving a year-over-year growth of more than 400%. This significant growth is driven by multiple factors: uncertainty demand brought by macro-political events (such as the 2024 US election), the maturity of infrastructure and trading models, and the thawing of the regulatory environment (Kalshi's lawsuit victory and Polymarket's return to the US). Prediction Market Agents are showing early embryonic forms in early 2026 and are poised to become a continuously emerging product form in the agent field over the coming year. I. Prediction Markets: Betting to  Truth Layer A prediction market is a financial mechanism for trading on the outcomes of future events. Contract prices essentially reflect the market's collective judgment on the probability of an event occurring. Its effectiveness stems from the combination of crowd wisdom and economic incentives: in an environment of anonymous, real-money betting, scattered information is quickly integrated into price signals weighted by financial willingness, thereby significantly reducing noise and false judgments. By the end of 2025, prediction markets have basically formed a duopoly dominated by Polymarket and Kalshi. According to Forbes, the total trading volume in 2025 reached approximately $44 billion, with Polymarket contributing about $21.5 billion and Kalshi about $17.1 billion. Relying on its legal victory in the previous election contract case, its first-mover compliance advantage in the US sports prediction market, and relatively clear regulatory expectations, Kalshi has achieved rapid expansion. Currently, the development paths of the two have shown clear differentiation: Polymarket adopts a mixed CLOB architecture with "off-chain matching, on-chain settlement" and a decentralized settlement mechanism, building a globalized, non-custodial high-liquidity market. After returning to the US with compliance, it formed an "onshore + offshore" dual-track operating structure.Kalshi integrates into the traditional financial system, accessing mainstream retail brokerages via API, attracting Wall Street market makers to participate deeply in macro and data-type contract trading. Its products are constrained by traditional regulatory processes, and long-tail demands and sudden events lag relatively behind. Apart from Polymarket and Kalshi, other competitive players in the prediction market field are developing mainly along two paths: First is the compliance distribution path, embedding event contracts into the existing account systems of brokerages or large platforms, relying on channel coverage, clearing capabilities, and institutional trust to build advantages (e.g., ForecastTrader by Interactive Brokers and ForecastEx, and FanDuel Predicts by FanDuel and CME).Second is the on-chain performance and capital efficiency path. Taking the Solana ecosystem's perpetual contract DEX Drift as an example, it added a prediction market module B.E.T (prediction markets) on top of its original product line. The two paths—traditional financial compliance entry and crypto-native performance advantages—together constitute the diversified competitive landscape of the prediction market ecosystem. Prediction markets appear similar to gambling on the surface and are essentially zero-sum games. However, the core difference lies not in the form, but in whether they possess positive externalities: aggregating scattered information through real-money trading to publicly price real-world events, forming a valuable signal layer. Despite limitations such as entertainment-focused participation, the trend is shifting from gaming to a "Global Truth Layer"—with the access of institutions like CME and Bloomberg, event probabilities have become decision-making metadata that can be directly called by financial and enterprise systems, providing a more timely and quantifiable market-based truth. II. Prediction Agents: Architecture & Strategy Currently, Prediction Market Agents are entering an early practice stage. Their value lies not in "AI predicting more accurately," but in amplifying information processing and execution efficiency in prediction markets. The essence of a prediction market is an information aggregation mechanism, where price reflects the collective judgment of event probability; market inefficiencies in reality stem from information asymmetry, liquidity, and attention constraints. The reasonable positioning of a Prediction Market Agent is Executable Probabilistic Portfolio Management: converting news, rule texts, and on-chain data into verifiable pricing deviations, executing strategies in a faster, more disciplined, and lower-cost manner, and capturing structural opportunities through cross-platform arbitrage and portfolio risk control. An ideal Prediction Market Agent can be abstracted into a four-layer architecture: Information Layer: Aggregates news, social media, on-chain, and official data.Analysis Layer: Uses LLMs and ML to identify mispricing and calculate Edge.Strategy Layer: Converts Edge into positions through the Kelly criterion, staggered entry, and risk control.Execution Layer: Completes multi-market order placement, slippage and Gas optimization, and arbitrage execution, forming an efficient automated closed loop. The ideal business model design for Prediction Market Agents has different exploration spaces at different levels: Bottom Infrastructure Layer: Provides multi-source real-time data aggregation, Smart Money address libraries, unified prediction market execution engines, and backtesting tools. Charges B2B/B2D fees to obtain stable revenue unrelated to prediction accuracy.Middle Strategy Layer: Precipitates modular strategy components and community-contributed strategies in an open-source or Token-Gated manner, forming a composable strategy ecosystem and achieving value capture.Top Agent Layer: Directly runs live trading through trusted managed Vaults, realizing capabilities with transparent on-chain records and a 20–30% performance fee (plus a small management fee). The ideal Prediction Market Agent is closer to an "AI-driven probabilistic asset management product," gaining returns through long-term disciplined execution and cross-market mispricing gaming, rather than relying on single-time prediction accuracy. The core logic of the diversified revenue structure of "Infrastructure Monetization + Ecosystem Expansion + Performance Participation" is that even if Alpha converges as the market matures, bottom-layer capabilities such as execution, risk control, and settlement still have long-term value, reducing dependence on the single assumption that "AI consistently beats the market." Prediction Market Agent Strategy Analysis: Theoretically, Agents have advantages in high-speed, 24/7, and emotion-free execution. However, in prediction markets, this is often difficult to convert into sustainable Alpha. Its effective application is mainly limited to specific structures, such as automated market making, cross-platform mispricing capture, and information integration of long-tail events. These opportunities are scarce and constrained by liquidity and capital. Market Selection: Not all prediction markets have tradable value. Participation value depends on five dimensions: settlement clarity, liquidity quality, information advantage, time structure, and manipulation risk. It is recommended to prioritize the early stages of new markets, long-tail events with few professional players, and fleeting pricing windows caused by time zone differences; avoid high-heat political events, subjective settlement markets, and varieties with extremely low liquidity.Order Strategy: Adopt strict systematic position management. The prerequisite for entry is that one's own probability judgment is significantly higher than the market implied probability. Positions are determined based on the fractional Kelly criterion (usually 1/10–1/4 Kelly), and single event risk exposure does not exceed 15%, to achieve robust growth with controllable risk, bearable drawdowns, and compoundable advantages in the long run.Arbitrage Strategy: Arbitrage in prediction markets is mainly manifested in four types: cross-platform spread (be wary of settlement differences), Dutch Book arbitrage (high certainty but strict liquidity requirements), settlement arbitrage (relies on execution speed), and correlated asset hedging (limited by structural mismatch). The key to practice lies not in discovering spreads, but in strictly aligning contract definitions and settlement standards to avoid pseudo-arbitrage caused by subtle rule differences.Smart Money Copy-Trading: On-chain "Smart Money" signals are not suitable as a main strategy due to lagging, inducement risks, and sample issues. A more reasonable usage is as a confidence adjustment factor, used to assist core judgments based on information and pricing deviations. III. Noya.ai: Intelligence to Action As an early exploration of Prediction Market Agents, NOYA's core philosophy is "Intelligence That Acts." In on-chain markets, pure analysis and insight are not enough to create value—although dashboards, data analysis, and research tools can help users understand "what might happen," there is still a large amount of manual operation, cross-chain friction, and execution risk between insight and execution. NOYA is built based on this pain point: compressing the complete link of "Research → Form Judgment → Execution → Continuous Monitoring" in the professional investment process into a unified system, enabling intelligence to be directly translated into on-chain action. NOYA achieves this goal by integrating three core levels: Intelligence Layer: Aggregates market data, token analysis, and prediction market signals.Abstraction Layer: Hides complex cross-chain routing; users only need to express Intent.Execution Layer: AI Agents execute operations across chains and protocols based on user authorization. In terms of product form, NOYA supports different participation methods for passive income users, active traders, and prediction market participants. Through designs like Omnichain Execution, AI Agents & Intents, and Vault Abstraction, it modularizes and automates multi-chain liquidity management, complex strategy execution, and risk control. The overall system forms a continuous closed loop: Intelligence → Intent → Execution → Monitoring, achieving efficient, verifiable, and low-friction conversion from insight to execution while ensuring users always maintain control over their assets. IV. Noya.ai's Product System Evolution  Core Cornerstone: Noya Omnichain Vaults Omnivaults is NOYA's capital deployment layer, providing cross-chain, risk-controlled automated yield strategies. Users hand over assets to the system to run continuously across multiple chains and protocols through simple deposit and withdrawal operations, without the need for manual rebalancing or monitoring. The core goal is to achieve stable risk-adjusted returns rather than short-term speculation. Omnivaults cover strategies like standard yield and Loop, clearly divided by asset and risk level, and support optional bonding incentive mechanisms. At the execution level, the system automatically completes cross-chain routing and optimization, and can introduce ZKML to provide verifiable proof for strategy decisions, enhancing the transparency and credibility of automated asset management. The overall design focuses on modularity and composability, supporting future access to more asset types and strategy forms. NOYA Vault Technical Architecture: Each vault is uniformly registered and managed through the Registry; the AccountingManager is responsible for user shares (ERC-20) and NAV pricing; the bottom layer connects to protocols like Aave and Uniswap through modular Connectors and calculates cross-protocol TVL, relying on Value Oracle (Chainlink + Uniswap v3 TWAP) for price routing and valuation; trading and cross-chain operations are executed by Swap Handler (LiFi); finally, strategy execution is triggered by Keeper Multi-sig, forming a composable and auditable execution closed loop. Future Alpha: Prediction Market Agent NOYA's most imaginative module: the Intelligence layer continuously tracks on-chain fund behavior and off-chain narrative changes, identifying news shocks, emotional fluctuations, and odds mismatches. When probability deviations are found in prediction markets like Polymarket, the Execution layer AI Agent can mobilize vault funds for arbitrage and rebalancing under user authorization. At the same time, Token Intelligence and Prediction Market Copilot provide users with structured token and prediction market analysis, directly converting external information into actionable trading decisions. Prediction Market Intelligence Copilot NOYA is committed to upgrading prediction markets from single-event betting to systematically manageable probabilistic assets. Its core module integrates diverse data such as market implied probability, liquidity structure, historical settlements, and on-chain smart money behavior. It uses Expected Value (EV) and scenario analysis to identify pricing deviations and focuses on tracking position signals of high-win-rate wallets to distinguish informed trading from market noise. Based on this, Copilot supports cross-market and cross-event correlation analysis and transmits real-time signals to AI Agents to drive automated execution such as opening and rebalancing positions, achieving portfolio management and dynamic optimization of prediction markets. Core Strategy Mechanisms include: Multi-source Edge Sourcing: Fuses Polymarket real-time odds, polling data, private and external information flows to cross-verify event implied probabilities, systematically mining information advantages that have not been fully priced in.Prediction Market Arbitrage: Builds probabilistic and structural arbitrage strategies based on pricing differences across different markets, different contract structures, or similar events, capturing odds convergence returns while controlling directional risk.Auto-adjust Positions (Odds-Driven): When odds shift significantly due to changes in information, capital, or sentiment, the AI Agent automatically adjusts position size and direction, achieving continuous optimization in the prediction market rather than a one-time bet. NOYA Intelligence Token Reports NOYA's institutional-grade research and decision hub aims to automate the professional crypto investment research process and directly output decision-level signals usable for real asset allocation. This module presents clear investment stances, comprehensive scores, core logic, key catalysts, and risk warnings in a standardized report structure, continuously updated with real-time market and on-chain data. Unlike traditional research tools, NOYA's intelligence does not stop at static analysis but can be queried, compared, and followed up by AI Agents in natural language. It is directly fed to the execution layer to drive subsequent cross-chain trading, fund allocation, and portfolio management, thereby forming a "Research—Decision—Execution" integrated closed loop, making Intelligence an active signal source in the automated capital operation system. NOYA AI Agent (Voice & Natural Language Driven) The NOYA AI Agent is the platform's execution layer, whose core role is to directly translate user intent and market intelligence into authorized on-chain actions. Users can express goals via text or voice, and the Agent is responsible for planning and executing cross-chain, cross-protocol operations, compressing research and execution into a continuous process. It is a key product form for NOYA to lower the threshold for DeFi and prediction market operations. Users do not need to understand the underlying links, protocols, or transaction paths. They only need to express their goals through natural language or voice to trigger the AI Agent to automatically plan and execute multi-step on-chain operations, achieving "Intent as Execution." Under the premise of full-process user signing and non-custody, the Agent operates in a closed loop of "Intent Understanding → Action Planning → User Confirmation → On-chain Execution → Result Monitoring." It does not replace decision-making but is only responsible for efficient implementation and execution, significantly reducing the friction and threshold of complex financial operations. Trust Moat: ZKML Verifiable Execution Verifiable Execution aims to build a verifiable closed loop for the entire process of strategy, decision-making, and execution. NOYA introduces ZKML as a key mechanism to reduce trust assumptions: strategies are calculated off-chain and verifiable proofs are generated; corresponding fund operations can only be triggered after on-chain verification passes. This mechanism can provide credibility for strategy output without revealing model details and supports derivative capabilities such as verifiable backtesting. Currently, relevant modules are still marked as "under development" in public documents, and engineering details remain to be disclosed and verified. Future 6-Month Product Roadmap Prediction Market Advanced Order Capabilities: Improve strategy expression and execution precision to support Agent-based trading.Expansion to Multi-Prediction Markets: Access more platforms beyond Polymarket to expand event coverage and liquidity.Multi-source Edge Information Collection: Cross-verify with handicap odds to systematically capture underpriced probability deviations.Clearer Token Signals & Advanced Reports: Output trading signals and in-depth on-chain analysis that can directly drive execution.Advanced On-chain DeFi Strategy Combinations: Launch complex strategy structures to improve capital efficiency, returns, and scalability. V. Noya.ai's Ecosystem Growth Currently, Omnichain Vaults are in the early stage of ecosystem development, and their cross-chain execution and multi-strategy framework have been verified. Strategy & Coverage: The platform has integrated mainstream DeFi protocols such as Aave and Morpho, supports cross-chain allocation of stablecoins, ETH, and their derivative assets, and has preliminarily built a layered risk strategy (e.g., Basic Yield vs. Loop Strategy).Development Stage: The current TVL volume is limited. The core goal lies in functional verification (MVP) and risk control framework refinement. The architectural design has strong composability, reserving interfaces for the subsequent introduction of complex assets and advanced Agent scheduling. Incentive System: Kaito Linkage & Space Race Dual Drive NOYA has built a growth flywheel deeply binding content narrative and liquidity anchored on "Real Contribution." Ecosystem Partnership (Kaito Yaps): NOYA landed on Kaito Leaderboards with a composite narrative of "AI × DeFi × Agent," configuring an unlocked incentive pool of 5% of the total supply, and reserving an additional 1% for the Kaito ecosystem. Its mechanism deeply binds content creation (Yaps) with Vault deposits and Bond locking. User weekly contributions are converted into Stars that determine rank and multipliers, thereby synchronously strengthening narrative consensus and long-term capital stickiness at the incentive level.Growth Engine (Space Race): Space Race constitutes NOYA's core growth flywheel, replacing the traditional "capital scale first" airdrop model by using Stars as long-term equity credentials. This mechanism integrates Bond locking bonuses, two-way 10% referral incentives, and content dissemination into a weekly Points system, filtering out long-term users with high participation and strong consensus, and continuously optimizing community structure and token distribution.Community Building (Ambassador): NOYA adopts an invitation-only ambassador program, providing qualified participants with community round participation qualifications and performance rebates based on actual contributions (up to 10%). Currently, Noya.ai has accumulated over 3,000 on-chain users, and its X platform followers have exceeded 41,000, ranking in the top five of the Kaito Mindshare list. This indicates that NOYA has occupied a favorable attention niche in the prediction market and Agent track. In addition, Noya.ai's core contracts have passed dual audits by Code4rena and Hacken, and have accessed Hacken Extractor. VI. Tokenomics Design and Governance NOYA adopts a Single-token ecosystem model, with $NOYA as the sole value carrier and governance vehicle. NOYA employs a Buyback & Burn value capture mechanism. The value generated by the protocol layer in products such as AI Agents, Omnivaults, and prediction markets is captured through mechanisms like staking, governance, access permissions, and buyback & burn, forming a value closed loop of Use → Fee → Buyback, converting platform usage into long-term token value. The project takes Fair Launch as its core principle. It did not introduce angel round or VC investment but completed distribution through a public community round (Launch-Raise) with a low valuation ($10M FDV), Space Race, and airdrops. It deliberately reserves asymmetric upside space for the community, making the chip structure more biased towards active users and long-term participants; team incentives mainly come from long-term locked token shares. Token Distribution: Total Supply: 1 Billion (1,000,000,000) NOYAInitial Float (Low Float): ~12%Valuation & Financing (The Raise): Financing Amount: $1 Million; Valuation (FDV): $10 Million VII. Prediction Agent Competitive Analysis Currently, the Prediction Market Agent track is still in its early stages with a limited number of projects. Representative ones include Olas (Pearl Prediction Agents), Warden (BetFlix), and Noya.ai. From the perspective of product form and user participation, each represents three types of paths in the current prediction market agent track: Olas (Pearl Prediction Agents): Agent Productization & Runnable Delivery. Participated by "running an automated prediction Agent," encapsulating prediction market trading into a runnable Agent: users inject capital and run it, and the system automatically completes information acquisition, probability judgment, betting, and settlement. The participation method requiring additional installation has relatively limited friendliness for ordinary users.Warden (BetFlix): Interactive Distribution & Consumer-grade Betting Platform. Attracts user participation through a low-threshold, highly entertaining interactive experience. Adopts an interaction and distribution-oriented path, lowering participation costs with gamified and content-based frontends, emphasizing the consumption and entertainment attributes of prediction markets. Its competitive advantage mainly comes from user growth and distribution efficiency, rather than strategy or execution layer depth.NOYA.ai: Centered on "Fund Custody + Strategy Execution on Behalf," abstracting prediction markets and DeFi execution into asset management products through Vaults, providing a participation method with low operation and low mental burden. If the Prediction Market Intelligence and Agent execution modules are superimposed later, it is expected to form a "Research—Execution—Monitoring" integrated workflow Compared with AgentFi projects that have achieved clear product delivery such as Giza and Almanak, NOYA's DeFi Agent is currently still in a relatively early stage. However, NOYA's differentiation lies in its positioning and entry level: it enters the same execution and asset management narrative track with a fair launch valuation of about $10M FDV, possessing significant valuation discount and growth potential at the current stage. NOYA: An AgentFi project encapsulating asset management centered on Omnichain Vault. Current delivery focus is on infrastructure layers like cross-chain execution and risk control. Upper-layer Agent execution, prediction market capabilities, and ZKML-related mechanisms are still in the development and verification stage.Giza: Can directly run asset management strategies (ARMA, Pulse). Currently has the highest AgentFi product completion.Almanak: Positioned as AI Quant for DeFi, outputting strategy and risk signals through models and quantitative frameworks. Mainly targets professional fund and strategy management needs, emphasizing methodological systematicness and result reproducibility.Theoriq: Centered on multi-agent collaboration (Agent Swarms) strategy and execution framework, emphasizing scalable Agent collaboration systems and medium-to-long-term infrastructure narratives, leaning more towards bottom-layer capability construction.Infinit: An Agentic DeFi terminal leaning towards the execution layer. Through process orchestration of "Intent → Multi-step on-chain operation," it significantly lowers the execution threshold of complex DeFi operations, and users' perception of product value is relatively direct. VIII. Summary: Business, Engineering and Risks Business Logic: NOYA is a rare target in the current market that superimposes multiple narratives of AI Agent × Prediction Market × ZKML, and further combines the product direction of Intent-Driven Execution. At the asset pricing level, it launches with an FDV of approximately $10M, significantly lower than the common $75M–$100M valuation range of similar AI / DeFAI / Prediction related projects, forming a certain structural price difference. Design-wise, NOYA attempts to unify Strategy Execution (Vault / Agent) and Information Advantage (Prediction Market Intelligence) into the same execution framework, and establishes a value capture closed loop through protocol revenue return (fees → buyback & burn). Although the project is still in its early stages, under the combined effect of multi-narrative superposition and low valuation starting point, its risk-return structure is closer to a type of high-odds, asymmetric betting target. Engineering Implementation: At the verifiable delivery level, NOYA's core function currently online is Omnichain Vaults, providing cross-chain asset scheduling, yield strategy execution, and delayed settlement mechanisms. The engineering implementation is relatively foundational. The Prediction Market Intelligence (Copilot), NOYA AI Agent, and ZKML-driven verifiable execution emphasized in its vision are still in the development stage and have not yet formed a complete closed loop on the mainnet. It is not a mature DeFAI platform at this stage. Potential Risks & Key Focus Points: Delivery Uncertainty: The technological span from "Basic Vault" to "All-round Agent" is huge. Be alert to the risk of Roadmap delays or ZKML implementation falling short of expectations.Potential System Risks: Including contract security, cross-chain bridge failures, and oracle disputes specific to prediction markets (such as fuzzy rules leading to inability to adjudicate). Any single point of failure could cause fund loss. Disclaimer: This article was created with the assistance of AI tools such as ChatGPT-5.2, Gemini 3, and Claude Opus 4.5. The author has tried their best to proofread and ensure the information is true and accurate, but omissions are inevitable. Please understand. It should be specially noted that the crypto asset market generally has a divergence between project fundamentals and secondary market price performance. The content of this article is only for information integration and academic/research exchange, does not constitute any investment advice, and should not be considered as a recommendation to buy or sell any tokens.

Noya.ai: Agents in Prediction Markets

Author: 0xjacobzhao | https://linktr.ee/0xjacobzhao
In our previous Crypto AI series research reports, we have consistently emphasized the view that the most practical application scenarios in the current crypto field are mainly concentrated in stablecoin payments and DeFi, while Agents are the key interface for the AI industry facing users. Therefore, in the trend of Crypto and AI integration, the two most valuable paths are: AgentFi, based on existing mature DeFi protocols (basic strategies like lending and liquidity mining, as well as advanced strategies like Swap, Pendle PT, and funding rate arbitrage) in the short term; and Agent Payment, centering on stablecoin settlement and relying on protocols such as ACP/AP2/x402/ERC-8004 in the medium to long term.
Prediction markets have become an undeniable new industry trend in 2025, with their total annual trading volume surging from approximately $9 billion in 2024 to over $40 billion in 2025, achieving a year-over-year growth of more than 400%. This significant growth is driven by multiple factors: uncertainty demand brought by macro-political events (such as the 2024 US election), the maturity of infrastructure and trading models, and the thawing of the regulatory environment (Kalshi's lawsuit victory and Polymarket's return to the US). Prediction Market Agents are showing early embryonic forms in early 2026 and are poised to become a continuously emerging product form in the agent field over the coming year.
I. Prediction Markets: Betting to  Truth Layer
A prediction market is a financial mechanism for trading on the outcomes of future events. Contract prices essentially reflect the market's collective judgment on the probability of an event occurring. Its effectiveness stems from the combination of crowd wisdom and economic incentives: in an environment of anonymous, real-money betting, scattered information is quickly integrated into price signals weighted by financial willingness, thereby significantly reducing noise and false judgments.
By the end of 2025, prediction markets have basically formed a duopoly dominated by Polymarket and Kalshi. According to Forbes, the total trading volume in 2025 reached approximately $44 billion, with Polymarket contributing about $21.5 billion and Kalshi about $17.1 billion. Relying on its legal victory in the previous election contract case, its first-mover compliance advantage in the US sports prediction market, and relatively clear regulatory expectations, Kalshi has achieved rapid expansion. Currently, the development paths of the two have shown clear differentiation:
Polymarket adopts a mixed CLOB architecture with "off-chain matching, on-chain settlement" and a decentralized settlement mechanism, building a globalized, non-custodial high-liquidity market. After returning to the US with compliance, it formed an "onshore + offshore" dual-track operating structure.Kalshi integrates into the traditional financial system, accessing mainstream retail brokerages via API, attracting Wall Street market makers to participate deeply in macro and data-type contract trading. Its products are constrained by traditional regulatory processes, and long-tail demands and sudden events lag relatively behind.
Apart from Polymarket and Kalshi, other competitive players in the prediction market field are developing mainly along two paths:
First is the compliance distribution path, embedding event contracts into the existing account systems of brokerages or large platforms, relying on channel coverage, clearing capabilities, and institutional trust to build advantages (e.g., ForecastTrader by Interactive Brokers and ForecastEx, and FanDuel Predicts by FanDuel and CME).Second is the on-chain performance and capital efficiency path. Taking the Solana ecosystem's perpetual contract DEX Drift as an example, it added a prediction market module B.E.T (prediction markets) on top of its original product line.
The two paths—traditional financial compliance entry and crypto-native performance advantages—together constitute the diversified competitive landscape of the prediction market ecosystem.

Prediction markets appear similar to gambling on the surface and are essentially zero-sum games. However, the core difference lies not in the form, but in whether they possess positive externalities: aggregating scattered information through real-money trading to publicly price real-world events, forming a valuable signal layer. Despite limitations such as entertainment-focused participation, the trend is shifting from gaming to a "Global Truth Layer"—with the access of institutions like CME and Bloomberg, event probabilities have become decision-making metadata that can be directly called by financial and enterprise systems, providing a more timely and quantifiable market-based truth.
II. Prediction Agents: Architecture & Strategy
Currently, Prediction Market Agents are entering an early practice stage. Their value lies not in "AI predicting more accurately," but in amplifying information processing and execution efficiency in prediction markets. The essence of a prediction market is an information aggregation mechanism, where price reflects the collective judgment of event probability; market inefficiencies in reality stem from information asymmetry, liquidity, and attention constraints. The reasonable positioning of a Prediction Market Agent is Executable Probabilistic Portfolio Management: converting news, rule texts, and on-chain data into verifiable pricing deviations, executing strategies in a faster, more disciplined, and lower-cost manner, and capturing structural opportunities through cross-platform arbitrage and portfolio risk control.
An ideal Prediction Market Agent can be abstracted into a four-layer architecture:
Information Layer: Aggregates news, social media, on-chain, and official data.Analysis Layer: Uses LLMs and ML to identify mispricing and calculate Edge.Strategy Layer: Converts Edge into positions through the Kelly criterion, staggered entry, and risk control.Execution Layer: Completes multi-market order placement, slippage and Gas optimization, and arbitrage execution, forming an efficient automated closed loop.

The ideal business model design for Prediction Market Agents has different exploration spaces at different levels:
Bottom Infrastructure Layer: Provides multi-source real-time data aggregation, Smart Money address libraries, unified prediction market execution engines, and backtesting tools. Charges B2B/B2D fees to obtain stable revenue unrelated to prediction accuracy.Middle Strategy Layer: Precipitates modular strategy components and community-contributed strategies in an open-source or Token-Gated manner, forming a composable strategy ecosystem and achieving value capture.Top Agent Layer: Directly runs live trading through trusted managed Vaults, realizing capabilities with transparent on-chain records and a 20–30% performance fee (plus a small management fee).
The ideal Prediction Market Agent is closer to an "AI-driven probabilistic asset management product," gaining returns through long-term disciplined execution and cross-market mispricing gaming, rather than relying on single-time prediction accuracy. The core logic of the diversified revenue structure of "Infrastructure Monetization + Ecosystem Expansion + Performance Participation" is that even if Alpha converges as the market matures, bottom-layer capabilities such as execution, risk control, and settlement still have long-term value, reducing dependence on the single assumption that "AI consistently beats the market."
Prediction Market Agent Strategy Analysis:
Theoretically, Agents have advantages in high-speed, 24/7, and emotion-free execution. However, in prediction markets, this is often difficult to convert into sustainable Alpha. Its effective application is mainly limited to specific structures, such as automated market making, cross-platform mispricing capture, and information integration of long-tail events. These opportunities are scarce and constrained by liquidity and capital.
Market Selection: Not all prediction markets have tradable value. Participation value depends on five dimensions: settlement clarity, liquidity quality, information advantage, time structure, and manipulation risk. It is recommended to prioritize the early stages of new markets, long-tail events with few professional players, and fleeting pricing windows caused by time zone differences; avoid high-heat political events, subjective settlement markets, and varieties with extremely low liquidity.Order Strategy: Adopt strict systematic position management. The prerequisite for entry is that one's own probability judgment is significantly higher than the market implied probability. Positions are determined based on the fractional Kelly criterion (usually 1/10–1/4 Kelly), and single event risk exposure does not exceed 15%, to achieve robust growth with controllable risk, bearable drawdowns, and compoundable advantages in the long run.Arbitrage Strategy: Arbitrage in prediction markets is mainly manifested in four types: cross-platform spread (be wary of settlement differences), Dutch Book arbitrage (high certainty but strict liquidity requirements), settlement arbitrage (relies on execution speed), and correlated asset hedging (limited by structural mismatch). The key to practice lies not in discovering spreads, but in strictly aligning contract definitions and settlement standards to avoid pseudo-arbitrage caused by subtle rule differences.Smart Money Copy-Trading: On-chain "Smart Money" signals are not suitable as a main strategy due to lagging, inducement risks, and sample issues. A more reasonable usage is as a confidence adjustment factor, used to assist core judgments based on information and pricing deviations.
III. Noya.ai: Intelligence to Action
As an early exploration of Prediction Market Agents, NOYA's core philosophy is "Intelligence That Acts." In on-chain markets, pure analysis and insight are not enough to create value—although dashboards, data analysis, and research tools can help users understand "what might happen," there is still a large amount of manual operation, cross-chain friction, and execution risk between insight and execution. NOYA is built based on this pain point: compressing the complete link of "Research → Form Judgment → Execution → Continuous Monitoring" in the professional investment process into a unified system, enabling intelligence to be directly translated into on-chain action.
NOYA achieves this goal by integrating three core levels:
Intelligence Layer: Aggregates market data, token analysis, and prediction market signals.Abstraction Layer: Hides complex cross-chain routing; users only need to express Intent.Execution Layer: AI Agents execute operations across chains and protocols based on user authorization.
In terms of product form, NOYA supports different participation methods for passive income users, active traders, and prediction market participants. Through designs like Omnichain Execution, AI Agents & Intents, and Vault Abstraction, it modularizes and automates multi-chain liquidity management, complex strategy execution, and risk control.
The overall system forms a continuous closed loop: Intelligence → Intent → Execution → Monitoring, achieving efficient, verifiable, and low-friction conversion from insight to execution while ensuring users always maintain control over their assets.

IV. Noya.ai's Product System Evolution 
Core Cornerstone: Noya Omnichain Vaults
Omnivaults is NOYA's capital deployment layer, providing cross-chain, risk-controlled automated yield strategies. Users hand over assets to the system to run continuously across multiple chains and protocols through simple deposit and withdrawal operations, without the need for manual rebalancing or monitoring. The core goal is to achieve stable risk-adjusted returns rather than short-term speculation.
Omnivaults cover strategies like standard yield and Loop, clearly divided by asset and risk level, and support optional bonding incentive mechanisms. At the execution level, the system automatically completes cross-chain routing and optimization, and can introduce ZKML to provide verifiable proof for strategy decisions, enhancing the transparency and credibility of automated asset management. The overall design focuses on modularity and composability, supporting future access to more asset types and strategy forms.

NOYA Vault Technical Architecture: Each vault is uniformly registered and managed through the Registry; the AccountingManager is responsible for user shares (ERC-20) and NAV pricing; the bottom layer connects to protocols like Aave and Uniswap through modular Connectors and calculates cross-protocol TVL, relying on Value Oracle (Chainlink + Uniswap v3 TWAP) for price routing and valuation; trading and cross-chain operations are executed by Swap Handler (LiFi); finally, strategy execution is triggered by Keeper Multi-sig, forming a composable and auditable execution closed loop.
Future Alpha: Prediction Market Agent
NOYA's most imaginative module: the Intelligence layer continuously tracks on-chain fund behavior and off-chain narrative changes, identifying news shocks, emotional fluctuations, and odds mismatches. When probability deviations are found in prediction markets like Polymarket, the Execution layer AI Agent can mobilize vault funds for arbitrage and rebalancing under user authorization. At the same time, Token Intelligence and Prediction Market Copilot provide users with structured token and prediction market analysis, directly converting external information into actionable trading decisions.
Prediction Market Intelligence Copilot
NOYA is committed to upgrading prediction markets from single-event betting to systematically manageable probabilistic assets. Its core module integrates diverse data such as market implied probability, liquidity structure, historical settlements, and on-chain smart money behavior. It uses Expected Value (EV) and scenario analysis to identify pricing deviations and focuses on tracking position signals of high-win-rate wallets to distinguish informed trading from market noise. Based on this, Copilot supports cross-market and cross-event correlation analysis and transmits real-time signals to AI Agents to drive automated execution such as opening and rebalancing positions, achieving portfolio management and dynamic optimization of prediction markets.
Core Strategy Mechanisms include:
Multi-source Edge Sourcing: Fuses Polymarket real-time odds, polling data, private and external information flows to cross-verify event implied probabilities, systematically mining information advantages that have not been fully priced in.Prediction Market Arbitrage: Builds probabilistic and structural arbitrage strategies based on pricing differences across different markets, different contract structures, or similar events, capturing odds convergence returns while controlling directional risk.Auto-adjust Positions (Odds-Driven): When odds shift significantly due to changes in information, capital, or sentiment, the AI Agent automatically adjusts position size and direction, achieving continuous optimization in the prediction market rather than a one-time bet.
NOYA Intelligence Token Reports
NOYA's institutional-grade research and decision hub aims to automate the professional crypto investment research process and directly output decision-level signals usable for real asset allocation. This module presents clear investment stances, comprehensive scores, core logic, key catalysts, and risk warnings in a standardized report structure, continuously updated with real-time market and on-chain data. Unlike traditional research tools, NOYA's intelligence does not stop at static analysis but can be queried, compared, and followed up by AI Agents in natural language. It is directly fed to the execution layer to drive subsequent cross-chain trading, fund allocation, and portfolio management, thereby forming a "Research—Decision—Execution" integrated closed loop, making Intelligence an active signal source in the automated capital operation system.
NOYA AI Agent (Voice & Natural Language Driven)
The NOYA AI Agent is the platform's execution layer, whose core role is to directly translate user intent and market intelligence into authorized on-chain actions. Users can express goals via text or voice, and the Agent is responsible for planning and executing cross-chain, cross-protocol operations, compressing research and execution into a continuous process. It is a key product form for NOYA to lower the threshold for DeFi and prediction market operations.
Users do not need to understand the underlying links, protocols, or transaction paths. They only need to express their goals through natural language or voice to trigger the AI Agent to automatically plan and execute multi-step on-chain operations, achieving "Intent as Execution." Under the premise of full-process user signing and non-custody, the Agent operates in a closed loop of "Intent Understanding → Action Planning → User Confirmation → On-chain Execution → Result Monitoring." It does not replace decision-making but is only responsible for efficient implementation and execution, significantly reducing the friction and threshold of complex financial operations.
Trust Moat: ZKML Verifiable Execution
Verifiable Execution aims to build a verifiable closed loop for the entire process of strategy, decision-making, and execution. NOYA introduces ZKML as a key mechanism to reduce trust assumptions: strategies are calculated off-chain and verifiable proofs are generated; corresponding fund operations can only be triggered after on-chain verification passes. This mechanism can provide credibility for strategy output without revealing model details and supports derivative capabilities such as verifiable backtesting. Currently, relevant modules are still marked as "under development" in public documents, and engineering details remain to be disclosed and verified.
Future 6-Month Product Roadmap
Prediction Market Advanced Order Capabilities: Improve strategy expression and execution precision to support Agent-based trading.Expansion to Multi-Prediction Markets: Access more platforms beyond Polymarket to expand event coverage and liquidity.Multi-source Edge Information Collection: Cross-verify with handicap odds to systematically capture underpriced probability deviations.Clearer Token Signals & Advanced Reports: Output trading signals and in-depth on-chain analysis that can directly drive execution.Advanced On-chain DeFi Strategy Combinations: Launch complex strategy structures to improve capital efficiency, returns, and scalability.
V. Noya.ai's Ecosystem Growth
Currently, Omnichain Vaults are in the early stage of ecosystem development, and their cross-chain execution and multi-strategy framework have been verified.
Strategy & Coverage: The platform has integrated mainstream DeFi protocols such as Aave and Morpho, supports cross-chain allocation of stablecoins, ETH, and their derivative assets, and has preliminarily built a layered risk strategy (e.g., Basic Yield vs. Loop Strategy).Development Stage: The current TVL volume is limited. The core goal lies in functional verification (MVP) and risk control framework refinement. The architectural design has strong composability, reserving interfaces for the subsequent introduction of complex assets and advanced Agent scheduling.
Incentive System: Kaito Linkage & Space Race Dual Drive
NOYA has built a growth flywheel deeply binding content narrative and liquidity anchored on "Real Contribution."
Ecosystem Partnership (Kaito Yaps): NOYA landed on Kaito Leaderboards with a composite narrative of "AI × DeFi × Agent," configuring an unlocked incentive pool of 5% of the total supply, and reserving an additional 1% for the Kaito ecosystem. Its mechanism deeply binds content creation (Yaps) with Vault deposits and Bond locking. User weekly contributions are converted into Stars that determine rank and multipliers, thereby synchronously strengthening narrative consensus and long-term capital stickiness at the incentive level.Growth Engine (Space Race): Space Race constitutes NOYA's core growth flywheel, replacing the traditional "capital scale first" airdrop model by using Stars as long-term equity credentials. This mechanism integrates Bond locking bonuses, two-way 10% referral incentives, and content dissemination into a weekly Points system, filtering out long-term users with high participation and strong consensus, and continuously optimizing community structure and token distribution.Community Building (Ambassador): NOYA adopts an invitation-only ambassador program, providing qualified participants with community round participation qualifications and performance rebates based on actual contributions (up to 10%).
Currently, Noya.ai has accumulated over 3,000 on-chain users, and its X platform followers have exceeded 41,000, ranking in the top five of the Kaito Mindshare list. This indicates that NOYA has occupied a favorable attention niche in the prediction market and Agent track.
In addition, Noya.ai's core contracts have passed dual audits by Code4rena and Hacken, and have accessed Hacken Extractor.
VI. Tokenomics Design and Governance
NOYA adopts a Single-token ecosystem model, with $NOYA as the sole value carrier and governance vehicle.
NOYA employs a Buyback & Burn value capture mechanism. The value generated by the protocol layer in products such as AI Agents, Omnivaults, and prediction markets is captured through mechanisms like staking, governance, access permissions, and buyback & burn, forming a value closed loop of Use → Fee → Buyback, converting platform usage into long-term token value.
The project takes Fair Launch as its core principle. It did not introduce angel round or VC investment but completed distribution through a public community round (Launch-Raise) with a low valuation ($10M FDV), Space Race, and airdrops. It deliberately reserves asymmetric upside space for the community, making the chip structure more biased towards active users and long-term participants; team incentives mainly come from long-term locked token shares.
Token Distribution:
Total Supply: 1 Billion (1,000,000,000) NOYAInitial Float (Low Float): ~12%Valuation & Financing (The Raise): Financing Amount: $1 Million; Valuation (FDV): $10 Million

VII. Prediction Agent Competitive Analysis
Currently, the Prediction Market Agent track is still in its early stages with a limited number of projects. Representative ones include Olas (Pearl Prediction Agents), Warden (BetFlix), and Noya.ai.
From the perspective of product form and user participation, each represents three types of paths in the current prediction market agent track:
Olas (Pearl Prediction Agents): Agent Productization & Runnable Delivery. Participated by "running an automated prediction Agent," encapsulating prediction market trading into a runnable Agent: users inject capital and run it, and the system automatically completes information acquisition, probability judgment, betting, and settlement. The participation method requiring additional installation has relatively limited friendliness for ordinary users.Warden (BetFlix): Interactive Distribution & Consumer-grade Betting Platform. Attracts user participation through a low-threshold, highly entertaining interactive experience. Adopts an interaction and distribution-oriented path, lowering participation costs with gamified and content-based frontends, emphasizing the consumption and entertainment attributes of prediction markets. Its competitive advantage mainly comes from user growth and distribution efficiency, rather than strategy or execution layer depth.NOYA.ai: Centered on "Fund Custody + Strategy Execution on Behalf," abstracting prediction markets and DeFi execution into asset management products through Vaults, providing a participation method with low operation and low mental burden. If the Prediction Market Intelligence and Agent execution modules are superimposed later, it is expected to form a "Research—Execution—Monitoring" integrated workflow

Compared with AgentFi projects that have achieved clear product delivery such as Giza and Almanak, NOYA's DeFi Agent is currently still in a relatively early stage. However, NOYA's differentiation lies in its positioning and entry level: it enters the same execution and asset management narrative track with a fair launch valuation of about $10M FDV, possessing significant valuation discount and growth potential at the current stage.
NOYA: An AgentFi project encapsulating asset management centered on Omnichain Vault. Current delivery focus is on infrastructure layers like cross-chain execution and risk control. Upper-layer Agent execution, prediction market capabilities, and ZKML-related mechanisms are still in the development and verification stage.Giza: Can directly run asset management strategies (ARMA, Pulse). Currently has the highest AgentFi product completion.Almanak: Positioned as AI Quant for DeFi, outputting strategy and risk signals through models and quantitative frameworks. Mainly targets professional fund and strategy management needs, emphasizing methodological systematicness and result reproducibility.Theoriq: Centered on multi-agent collaboration (Agent Swarms) strategy and execution framework, emphasizing scalable Agent collaboration systems and medium-to-long-term infrastructure narratives, leaning more towards bottom-layer capability construction.Infinit: An Agentic DeFi terminal leaning towards the execution layer. Through process orchestration of "Intent → Multi-step on-chain operation," it significantly lowers the execution threshold of complex DeFi operations, and users' perception of product value is relatively direct.
VIII. Summary: Business, Engineering and Risks
Business Logic:
NOYA is a rare target in the current market that superimposes multiple narratives of AI Agent × Prediction Market × ZKML, and further combines the product direction of Intent-Driven Execution. At the asset pricing level, it launches with an FDV of approximately $10M, significantly lower than the common $75M–$100M valuation range of similar AI / DeFAI / Prediction related projects, forming a certain structural price difference.
Design-wise, NOYA attempts to unify Strategy Execution (Vault / Agent) and Information Advantage (Prediction Market Intelligence) into the same execution framework, and establishes a value capture closed loop through protocol revenue return (fees → buyback & burn). Although the project is still in its early stages, under the combined effect of multi-narrative superposition and low valuation starting point, its risk-return structure is closer to a type of high-odds, asymmetric betting target.
Engineering Implementation:
At the verifiable delivery level, NOYA's core function currently online is Omnichain Vaults, providing cross-chain asset scheduling, yield strategy execution, and delayed settlement mechanisms. The engineering implementation is relatively foundational. The Prediction Market Intelligence (Copilot), NOYA AI Agent, and ZKML-driven verifiable execution emphasized in its vision are still in the development stage and have not yet formed a complete closed loop on the mainnet. It is not a mature DeFAI platform at this stage.
Potential Risks & Key Focus Points:
Delivery Uncertainty: The technological span from "Basic Vault" to "All-round Agent" is huge. Be alert to the risk of Roadmap delays or ZKML implementation falling short of expectations.Potential System Risks: Including contract security, cross-chain bridge failures, and oracle disputes specific to prediction markets (such as fuzzy rules leading to inability to adjudicate). Any single point of failure could cause fund loss.

Disclaimer: This article was created with the assistance of AI tools such as ChatGPT-5.2, Gemini 3, and Claude Opus 4.5. The author has tried their best to proofread and ensure the information is true and accurate, but omissions are inevitable. Please understand. It should be specially noted that the crypto asset market generally has a divergence between project fundamentals and secondary market price performance. The content of this article is only for information integration and academic/research exchange, does not constitute any investment advice, and should not be considered as a recommendation to buy or sell any tokens.
Noya.ai 研报:预测市场智能体的前瞻Noya.ai 研报:预测市场智能体的前瞻 作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 在过往Crypto AI系列研报中我们持续强调的观点:当前加密领域最具实际应用价值的场景,主要集中在稳定币支付与DeFi,而Agent是AI产业面向用户的关键界面。因此,在Crypto与AI融合的趋势中,最具价值的两条路径分别是:短期内基于现有成熟DeFi协议(借贷、流动性挖矿等基础策略,以及Swap、Pendle PT、资金费率套利等高级策略)的AgentFi,以及中长期围绕稳定币结算、并依托ACP/AP2/x402/ERC-8004等协议的Agent Payment。 预测市场在2025年已成为不容忽视的行业新趋势,其年度总交易量从2024年的约90亿美元激增至2025年的超过400亿美元,实现超过400%的年同比增长。这一显著增长由多重因素共同推动:宏观政治事件(如2024年美国大选)带来不确定性需求,基础设施与交易模式的成熟,以及监管环境出现破冰(Kalshi胜诉与Polymarket回归美国)。预测市场智能体(Prediction Market Agent)在2026年初呈现早期雏形,有望在未来一年成为智能体领域的新兴产品形态。 一、预测市场:从下注工具到“全球真相层” 预测市场是一种围绕未来事件结果进行交易的金融机制,合约价格本质上反映了市场对事件发生概率的集体判断。其有效性源于群体智慧与经济激励的结合:在匿名、真金白银下注的环境中,分散信息被快速整合为按资金意愿加权的价格信号,从而显著降低噪音与虚假判断。 截至2025年底,预测市场已基本形成 Polymarket与Kalshi  双寡头主导的格局。据《福布斯》统计,2025年总交易量约达440亿美元,其中Polymarket贡献约215亿美元,Kalshi约为171亿美元。Kalshi凭借此前选举合约案的法律胜诉、在美国体育预测市场的合规先发优势,以及相对明确的监管预期,实现了快速扩张。目前,二者的发展路径已呈现清晰分化: Polymarket 采用“链下撮合、链上结算”的混合CLOB架构与去中心化结算机制,构建起全球化、非托管的高流动性市场,合规重返美国后形成“在岸+离岸”双轨运营结构;Kalshi 融入传统金融体系,通过API接入主流零售券商,吸引华尔街做市商深度参与宏观与数据型合约交易,产品受制于传统监管流程,长尾需求与突发事件相对滞后。 除Polymarket与Kalshi之外,预测市场领域具备竞争力的其他参与者主要沿着两条路径发展: 一是合规分发路径,将事件合约嵌入券商或大型平台的现有账户体系,依靠渠道覆盖、清算能力与机构信任建立优势(例如Interactive Brokers与ForecastEx合作的ForecastTrader,以及FanDuel与CME合作的FanDuel Predicts);二是链上性能与资金效率路径,以Solana生态的永续合约DEX Drift为例,其在原有产品线基础上新增了预测市场模块B.E.T(prediction markets)。 传统金融合规入口与加密原生性能优势这两类路径共同构成预测市场生态的多元竞争格局。 预测市场表面上与赌博相似,本质上也是一种零和博弈,但二者的核心区别并不在于形式,而在于是否具有正外部性:通过真金白银的交易聚合分散信息,对现实事件进行公共定价,形成有价值的信号层。尽管存在娱乐化参与等局限,但其趋势正从博弈转向“全球真相层”——随着CME、彭博等机构的接入,事件概率已成为可被金融与企业系统直接调用的决策元数据,提供更及时、可量化的市场化真相。 二、预测智能体:架构设计、商业模式与策略分析 当下预测市场智能体(Prediction Market Agent)正在进入早期实践阶段,其价值不在于“AI 预测更准”,而在于放大预测市场中的信息处理与执行效率。预测市场本质是信息聚合机制,价格反映对事件概率的集体判断;现实中的市场低效源于信息不对称、流动性与注意力约束。预测市场智能体 的合理定位是可执行的概率资产管理(Executable Probabilistic Portfolio Management):将新闻、规则文本与链上数据转化为可验证的定价偏差,以更快、更纪律化、低成本的方式执行策略,并通过跨平台套利与组合风控捕获结构性机会。 理想的预测市场智能体 可抽象为四层架构: 信息层汇集新闻、社交、链上与官方数据;分析层以 LLM 与 ML 识别错价并计算 Edge;策略层通过凯利公式、分批建仓与风控将 Edge 转化为仓位;执行层完成多市场下单、滑点与 Gas 优化与套利执行,形成高效自动化闭环。 预测市场智能体的理想的商业模式设计在不同层级有不同方向的探索空间: 底层Infrastructure 层,提供多源实时数据聚合、Smart Money 地址库、统一的预测市场执行引擎与回测工具,向 B2B/B2D 收费,获取与预测准确率无关的稳定收入;中间Strategy 层,以开源或 Token-Gated 方式沉淀模块化策略组件与社区贡献策略,形成可组合的策略生态并实现价值捕获;顶层Agent 层,通过受托管理的 Vault 直接跑实盘,以透明链上记录和 20–30% 的绩效费(叠加少量管理费)兑现能力。 理想的预测市场智能体 Agent 更接近一个“AI 驱动的概率型资管产品”,通过长期纪律化执行与跨市场错价博弈,而非依赖单次预测准确率来获取收益。而“基础设施变现 + 生态扩展 + 业绩参与”的多元收入结构设计的核心逻辑在于:即便 Alpha 随市场成熟而收敛,执行、风控与结算等底层能力仍具长期价值,可降低对单一“AI 持续战胜市场”假设的依赖。 预测市场智能体策略分析: 理论上,Agent 具备高速、全天候与去情绪化执行优势,但在预测市场中往往难以转化为持续 Alpha,其有效应用主要局限于特定结构,如自动化做市、跨平台错价捕捉及长尾事件的信息整合,这些机会稀缺且受流动性与资本约束。 市场选择:并非所有预测市场都具备可交易价值,参与价值取决于结算清晰度、流动性质量、信息优势、时间结构与操纵风险五个维度。建议优先关注新市场的早期阶段、专业玩家少的长尾事件以及时区差异导致的短暂定价窗口;避免高热度政治事件、主观结算市场与极低流动性品种。下单策略:采用严格的系统化仓位管理。入场前提是自身概率判断显著高于市场隐含概率,并依据分数化凯利公式(通常为1/10–1/4 Kelly)确定仓位,单事件风险敞口不超过15%,以在长期实现风险可控、回撤可承受、优势可复利的稳健增长。套利策略:预测市场中的套利主要体现为四类:跨平台价差(需警惕结算差异)、Dutch Book套利(确定性高但流动性要求严)、结算套利(依赖执行速度)及关联资产对冲(受结构错配限制)。实践关键不在于发现价差,而在于严格对齐合约定义与结算标准,避免因规则细微差异导致的伪套利。聪明钱跟单:链上“聪明钱”信号因滞后性、诱导风险与样本问题,不宜作为主策略。更合理的用法是作为置信度调节因子,用于辅助基于信息与定价偏差的核心判断。 三、Noya.ai:从情报到行动的智能体网络 作为预测市场智能体的早期探索,NOYA 的核心理念是 “Intelligence That Acts(让情报直接行动)”。在链上市场中,单纯的分析与洞察并不足以创造价值——尽管仪表盘、数据分析和研究工具能够帮助用户理解“可能发生什么”,但从洞察到执行之间仍存在大量人工操作、跨链摩擦与执行风险。NOYA 正是基于这一痛点构建:将专业投资流程中“研究 → 形成判断 → 执行 → 持续监控”的完整链路,压缩进一个统一系统,使情报能够直接转化为链上行动。 NOYA 通过整合三大核心层级实现这一目标: 情报层 (Intelligence): 聚合市场数据、代币分析和预测市场信号。抽象层 (Abstraction): 隐藏复杂的跨链路由,用户只需表达意图(Intent)。执行层 (Execution): AI Agent 根据用户授权,跨链、跨协议执行操作。 在产品形态上,NOYA 支持被动收益型用户、主动交易者以及预测市场参与者等不同参与方式,并通过 Omnichain Execution、AI Agents & Intents、Vault Abstraction 等设计,将多链流动性管理、复杂策略执行与风险控制模块化、自动化。 整体系统形成一个持续闭环:Intelligence → Intent → Execution → Monitoring,在确保用户始终掌握资产控制权的前提下,实现从洞察到执行的高效、可验证与低摩擦转化。 四、Noya.ai 的产品体系与演进路径 核心基石:Noya Omnichain Vaults Omnivaults 是 NOYA 的资本部署层,提供跨链、风险可控的自动化收益策略。用户通过简单的存取操作,将资产交由系统在多链、多协议中持续运行,无需手动调仓或盯盘,核心目标是实现稳定的风险调整后收益而非短期投机。 Omnivaults 覆盖标准收益与循环(Loop)等策略,按资产与风险等级清晰划分,并支持可选的绑定激励机制。在执行层面,系统自动完成跨链路由与优化,并可引入 ZKML 对策略决策进行可验证证明,增强自动化资管的透明度与可信度。整体设计以模块化和可组合为核心,支持未来接入更多资产类型与策略形态。 NOYA  Vault(金库)的技术架构:各金库通过 Registry 统一注册与管理,AccountingManager 负责用户份额(ERC-20)与净值定价;底层通过模块化 Connectors 对接 Aave、Uniswap 等协议并计算跨协议 TVL,依赖 Value Oracle(Chainlink + Uniswap v3 TWAP)完成价格路由与估值;交易与跨链由 Swap Handler(LiFi) 执行;最终,策略执行由 Keeper 多签 触发,形成可组合、可审计的执行闭环。 未来 Alpha:预测市场智能体 (Prediction Market Agent) NOYA 最具想象空间的模块:情报层持续追踪链上资金行为与链下叙事变化,识别新闻冲击、情绪波动与赔率错配;当在 Polymarket 等预测市场发现概率偏差时,执行层 AI Agent 可在用户授权下调动金库资金进行套利与调仓。同时,Token Intelligence 与 Prediction Market Copilot 为用户提供结构化代币与预测市场分析,将外部信息直接转化为可执行的交易决策。 预测市场智能决策助理(Prediction Market Intelligence Copilot) NOYA致力于将预测市场从单一事件下注升级为可系统管理的概率资产。其核心模块通过整合市场隐含概率、流动性结构、历史结算与链上聪明钱行为等多元数据,运用期望值(EV)与情景分析识别定价偏差,并重点追踪高胜率钱包的仓位信号以区分信息交易与市场噪音。基于此,Copilot 支持跨市场、跨事件的关联分析,并将实时信号传递至AI Agent,驱动开仓、调仓等自动化执行,实现预测市场的组合管理与动态优化。 核心策略机制包括: 多源 Edge 信息捕获(Multi-source Edge Sourcing):融合 Polymarket 实时赔率、民调数据、私有与外部信息流,对事件隐含概率进行交叉验证,系统性挖掘尚未被充分定价的信息优势。跨市场与跨事件套利(Prediction Market Arbitrage):基于不同市场、不同合约结构或相近事件间的定价差异,构建概率与结构性套利策略,在控制方向性风险的前提下捕获赔率收敛收益。赔率驱动的动态仓位管理(Auto-adjust Positions):当赔率因信息、资金或情绪变化显著偏移时,由 AI Agent 自动调整仓位规模与方向,实现预测市场中的持续优化,而非一次性下注。 NOYA 智能代币情报报告:(NOYA Intelligence Token Reports)   NOYA 的机构级研究与决策中枢,目标在于将专业加密投研流程自动化,并直接输出可用于真实资产配置的决策级信号。该模块以标准化报告结构呈现明确的投资立场、综合评分、核心逻辑、关键催化剂与风险提示,并结合实时市场与链上数据持续更新。与传统研究工具不同,NOYA 的情报并不止步于静态分析,而是可通过 AI Agent 以自然语言调用、对比与追问,并被直接输送至执行层,驱动后续的跨链交易、资金配置与组合管理,从而形成“研究—决策—执行”一体化闭环,使 Intelligence 成为自动化资本运作体系中的主动信号源。 NOYA AI Agent (语音与自然语言驱动) NOYA AI Agent 是平台的执行层,核心作用是将用户意图与市场情报直接转化为经授权的链上行动。用户可通过文本或语音表达目标,Agent 负责规划并执行跨链、跨协议的操作,将研究与执行压缩为一个连续流程。 是 NOYA 降低 DeFi 与预测市场操作门槛的关键产品形态 用户无需理解底层链路、协议或交易路径,仅需通过自然语言或语音表达目标,即可触发 AI Agent 自动规划并执行多步链上操作,实现“意图即执行”。在全程用户签名与非托管前提下,Agent 按“意图理解 → 行动规划 → 用户确认 → 链上执行 → 结果监控”的闭环运行,不替代决策,仅负责高效落地执行,显著降低复杂金融操作的摩擦与门槛。 信任护城河:ZKML 可信执行(Verifiable Execution) 可信执行旨在构建策略、决策与执行的全流程可验证闭环。NOYA引入ZKML作为降低信任假设的关键机制:策略在链下计算,并生成可验证证明,链上验证通过后方可触发相应资金操作。该机制可在不泄露模型细节的前提下,为策略输出提供可信性,并支持可验证回测等衍生能力。目前相关模块在公开文档中仍标注为“开发中”,工程细节仍有待后续披露与验证。 未来 6 个月产品路线图 预测市场高级订单能力:提升策略表达与执行精度,支撑 Agent 化交易。扩展至多预测市场:在 Polymarket 之外接入更多平台,扩大事件覆盖与流动性。多源 Edge 信息采集:与盘口赔率交叉验证,系统性捕获未充分定价的概率偏差。更清晰的代币信号与高阶报告:输出可直接驱动执行的交易信号与深度链上分析。更高级的链上 DeFi 策略组合:上线复杂策略结构,提升资金效率、收益与可扩展性。 五、Noya.ai的生态增长与激励体系 目前 Omnichain Vaults 处于生态发展的早期阶段,其跨链执行与多策略框架已通过验证。 策略与覆盖: 平台已集成 Aave、Morpho 等主流 DeFi 协议,支持稳定币、ETH 及其衍生资产的跨链调配,并初步构建了分层风险策略(如基础收益 vs. Loop 策略)。发展阶段: 当前 TVL 体量有限,核心目标在于功能验证(MVP)与风控框架打磨,架构设计有较强的可组合性,为后续引入复杂资产及高级 Agent 调度预留接口。 激励体系:Kaito 联动与 Space Race 双轮驱动 NOYA 构建了一套以“真实贡献”为锚点,深度绑定内容叙事与流动性的增长飞轮。 生态合作(Kaito Yaps):NOYA 以“AI × DeFi × Agent”的复合叙事登陆 Kaito Leaderboards,配置 总供应量 5% 的无锁仓激励池,并额外预留 1% 用于 Kaito 生态。其机制将内容创作(Yaps)与 Vault 存入、Bond 锁定深度绑定,用户周度贡献转化为决定等级与倍率的 Stars,从而在激励层面同步强化叙事共识与资金长期黏性。增长引擎(Space Race):Space Race 构成 NOYA 的核心增长飞轮,通过以 Stars 作为长期权益凭证,替代传统“资金规模优先”的空投模式。该机制将 Bond 锁仓加成、双向 10% 推荐激励与内容传播统一纳入周度 Points 体系,筛选出高参与度、强共识的长期用户,持续优化社区结构与代币分布。社区建设(Ambassador):NOYA 采用邀请制大使计划,向合格参与者提供社区轮参与资格及基于实际贡献的绩效返佣(最高 10%)。 目前Noya.ai积累超 3,000 名链上用户,X 平台粉丝突破 4.1 万,位列 Kaito Mindshare 榜单前五。这表明 NOYA 在预测市场与 Agent 赛道中已占据了有利的注意力生态位。 此外Noya.ai核心合约通过 Code4rena 与 Hacken 双重审计,并接入 Hacken Extractor。 六、代币经济模型设计及治理 NOYA 采用单代币(Single-token)生态模型,以 $NOYA 作为唯一的价值承载与治理载体。 NOYA 采用回购销毁(Buyback & Burn) 价值捕获机制,协议层在 AI Agent、Omnivaults 与预测市场等产品中产生的价值,通过质押、治理、访问权限及回购销毁等机制实现价值承接,形成 使用 → 收费 → 回购价值闭环,将平台使用度转化为代币长期价值。 项目以 Fair Launch 为核心原则,未引入天使轮或 VC 投资,而是通过低估值($10M FDV)的公开社区轮(Launch-Raise)、Space Race 与空投完成分发,刻意为社区保留非对称上行空间,使筹码结构更偏向活跃用户与长期参与者;团队激励主要来自长期锁定的代币份额。 代币分配 (Distribution) 总供应量: 10 亿 (1,000,000,000) NOYA 初始流通量 (Low Float): 约 12% 估值与融资 (The Raise):融资额:100万美金;估值 (FDV): 1000万美金  七、预测智能体市场竞争分析 目前,预测市场智能体(Prediction Market Agent)赛道仍处于早期,项目数量有限,较具代表性的包括 Olas(Pearl  Prediction Agents)、Warden(BetFlix) 与 Noya.ai。 从产品形态与用户参与方式看,各代表了目前预测市场智能体赛道的三类路径: 1)Olas(Pearl Prediction Agents):Agent 产品化与可运行交付, 以“运行一个自动化预测 Agent”为参与方式,将预测市场交易封装为可运行的 Agent:用户注资并运行,系统自动完成信息获取、概率判断、下注与结算。需要额外安装的参与方式对普通用户的友好度相对有限。 2)Warden(BetFlix):交互分发与消费级投注平台 , 通过低门槛、强娱乐性的交互体验吸引用户参与,采用交互与分发导向路径,以游戏化、内容化前端降低参与成本,强调预测市场的消费与娱乐属性。其竞争优势主要来自用户增长与分发效率,而非策略或执行层深度。 3)NOYA.ai:以“资金托管 + 策略代执行”为核心,通过 Vault 将预测市场与 DeFi 执行抽象为资管产品,提供低操作、低心智负担的参与方式。若后续叠加 Prediction Market Intelligence 与 Agent 执行模块,有望形成“研究—执行—监控”的一体化工作流。 与 Giza、Almanak 等已实现明确产品交付的 AgentFi 项目相比,NOYA 的 DeFi Agent 目前仍处于相对早期阶段。但 NOYA 的差异化在于其定位与切入层级:其以约 $10M FDV 的公平启动估值进入同一执行与资管叙事赛道,在现阶段具备显著的估值折价与增长潜力。 NOYA:以 Omnichain Vault 为核心的资管封装型 AgentFi 项目,当前交付重点集中在跨链执行与风险控制等基础设施层,上层的 Agent 执行、预测市场能力及 ZKML 相关机制仍处于开发与验证阶段。Giza:可直接运行资管策略(ARMA、Pulse),目前 AgentFi 产品完成度最高。Almanak:定位于 AI Quant for DeFi,通过模型与量化框架输出策略与风险信号,主要面向专业资金与策略管理需求,强调方法论的系统性与结果的可复现性。Theoriq:以多智能体协作(Agent Swarms)为核心的策略与执行框架,强调可扩展的 Agent 协作体系与中长期基础设施叙事,更偏向底层能力建设。Infinit:偏执行层的 Agentic DeFi 终端,通过“意图 → 多步链上操作”的流程编排,显著降低复杂 DeFi 操作的执行门槛,用户对产品价值的感知相对直接。 八、总结:商业逻辑、工程实现及潜在风险 商业逻辑: NOYA 是当前市场中较为少见的 AI Agent × Prediction Market × ZKML 多重叙事叠加标的,并进一步结合了 Intent 驱动执行 的产品方向。在资产定价层面,其以约 $10M FDV 启动,明显低于同类 AI / DeFAI / Prediction 相关项目常见的 $75M–$100M 区间估值,形成一定的结构性价差。 从设计上看,NOYA 试图将 策略执行(Vault / Agent) 与 信息优势(Prediction Market Intelligence) 统一到同一执行框架中,并通过协议收入回流(fees → buyback & burn)建立价值捕获闭环。尽管项目仍处于早期阶段,但在多叙事叠加与低估值起点的共同作用下,其风险—收益结构更接近一类高赔率、非对称博弈标的。 工程实现: 在可验证的交付层面,NOYA 当前已上线的核心功能为 Omnichain Vaults,提供跨链资产调度、收益策略执行与延迟结算机制,工程实现相对偏基础。其愿景中强调的 Prediction Market Intelligence(Copilot)、NOYA AI Agent 以及 ZKML 驱动的可验证执行仍处于开发阶段,尚未在主网形成完整闭环。现阶段并非成熟的 DeFAI 平台。 潜在风险与关注要点 交付不确定性: 从“基础 Vault”到“全能 Agent”的技术跨度极大,需警惕 Roadmap 延期或 ZKML 落地不及预期的风险。潜在系统风险 : 包含合约安全、跨链桥故障以及预测市场特有的预言机争议(如规则模糊导致无法裁决),任何单点故障都可能造成资金损耗。 免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

Noya.ai 研报:预测市场智能体的前瞻

Noya.ai 研报:预测市场智能体的前瞻
作者:0xjacobzhao | https://linktr.ee/0xjacobzhao

在过往Crypto AI系列研报中我们持续强调的观点:当前加密领域最具实际应用价值的场景,主要集中在稳定币支付与DeFi,而Agent是AI产业面向用户的关键界面。因此,在Crypto与AI融合的趋势中,最具价值的两条路径分别是:短期内基于现有成熟DeFi协议(借贷、流动性挖矿等基础策略,以及Swap、Pendle PT、资金费率套利等高级策略)的AgentFi,以及中长期围绕稳定币结算、并依托ACP/AP2/x402/ERC-8004等协议的Agent Payment。
预测市场在2025年已成为不容忽视的行业新趋势,其年度总交易量从2024年的约90亿美元激增至2025年的超过400亿美元,实现超过400%的年同比增长。这一显著增长由多重因素共同推动:宏观政治事件(如2024年美国大选)带来不确定性需求,基础设施与交易模式的成熟,以及监管环境出现破冰(Kalshi胜诉与Polymarket回归美国)。预测市场智能体(Prediction Market Agent)在2026年初呈现早期雏形,有望在未来一年成为智能体领域的新兴产品形态。

一、预测市场:从下注工具到“全球真相层”
预测市场是一种围绕未来事件结果进行交易的金融机制,合约价格本质上反映了市场对事件发生概率的集体判断。其有效性源于群体智慧与经济激励的结合:在匿名、真金白银下注的环境中,分散信息被快速整合为按资金意愿加权的价格信号,从而显著降低噪音与虚假判断。
截至2025年底,预测市场已基本形成 Polymarket与Kalshi  双寡头主导的格局。据《福布斯》统计,2025年总交易量约达440亿美元,其中Polymarket贡献约215亿美元,Kalshi约为171亿美元。Kalshi凭借此前选举合约案的法律胜诉、在美国体育预测市场的合规先发优势,以及相对明确的监管预期,实现了快速扩张。目前,二者的发展路径已呈现清晰分化:
Polymarket 采用“链下撮合、链上结算”的混合CLOB架构与去中心化结算机制,构建起全球化、非托管的高流动性市场,合规重返美国后形成“在岸+离岸”双轨运营结构;Kalshi 融入传统金融体系,通过API接入主流零售券商,吸引华尔街做市商深度参与宏观与数据型合约交易,产品受制于传统监管流程,长尾需求与突发事件相对滞后。
除Polymarket与Kalshi之外,预测市场领域具备竞争力的其他参与者主要沿着两条路径发展:
一是合规分发路径,将事件合约嵌入券商或大型平台的现有账户体系,依靠渠道覆盖、清算能力与机构信任建立优势(例如Interactive Brokers与ForecastEx合作的ForecastTrader,以及FanDuel与CME合作的FanDuel Predicts);二是链上性能与资金效率路径,以Solana生态的永续合约DEX Drift为例,其在原有产品线基础上新增了预测市场模块B.E.T(prediction markets)。
传统金融合规入口与加密原生性能优势这两类路径共同构成预测市场生态的多元竞争格局。

预测市场表面上与赌博相似,本质上也是一种零和博弈,但二者的核心区别并不在于形式,而在于是否具有正外部性:通过真金白银的交易聚合分散信息,对现实事件进行公共定价,形成有价值的信号层。尽管存在娱乐化参与等局限,但其趋势正从博弈转向“全球真相层”——随着CME、彭博等机构的接入,事件概率已成为可被金融与企业系统直接调用的决策元数据,提供更及时、可量化的市场化真相。

二、预测智能体:架构设计、商业模式与策略分析
当下预测市场智能体(Prediction Market Agent)正在进入早期实践阶段,其价值不在于“AI 预测更准”,而在于放大预测市场中的信息处理与执行效率。预测市场本质是信息聚合机制,价格反映对事件概率的集体判断;现实中的市场低效源于信息不对称、流动性与注意力约束。预测市场智能体 的合理定位是可执行的概率资产管理(Executable Probabilistic Portfolio Management):将新闻、规则文本与链上数据转化为可验证的定价偏差,以更快、更纪律化、低成本的方式执行策略,并通过跨平台套利与组合风控捕获结构性机会。
理想的预测市场智能体 可抽象为四层架构:
信息层汇集新闻、社交、链上与官方数据;分析层以 LLM 与 ML 识别错价并计算 Edge;策略层通过凯利公式、分批建仓与风控将 Edge 转化为仓位;执行层完成多市场下单、滑点与 Gas 优化与套利执行,形成高效自动化闭环。

预测市场智能体的理想的商业模式设计在不同层级有不同方向的探索空间:
底层Infrastructure 层,提供多源实时数据聚合、Smart Money 地址库、统一的预测市场执行引擎与回测工具,向 B2B/B2D 收费,获取与预测准确率无关的稳定收入;中间Strategy 层,以开源或 Token-Gated 方式沉淀模块化策略组件与社区贡献策略,形成可组合的策略生态并实现价值捕获;顶层Agent 层,通过受托管理的 Vault 直接跑实盘,以透明链上记录和 20–30% 的绩效费(叠加少量管理费)兑现能力。
理想的预测市场智能体 Agent 更接近一个“AI 驱动的概率型资管产品”,通过长期纪律化执行与跨市场错价博弈,而非依赖单次预测准确率来获取收益。而“基础设施变现 + 生态扩展 + 业绩参与”的多元收入结构设计的核心逻辑在于:即便 Alpha 随市场成熟而收敛,执行、风控与结算等底层能力仍具长期价值,可降低对单一“AI 持续战胜市场”假设的依赖。

预测市场智能体策略分析:
理论上,Agent 具备高速、全天候与去情绪化执行优势,但在预测市场中往往难以转化为持续 Alpha,其有效应用主要局限于特定结构,如自动化做市、跨平台错价捕捉及长尾事件的信息整合,这些机会稀缺且受流动性与资本约束。
市场选择:并非所有预测市场都具备可交易价值,参与价值取决于结算清晰度、流动性质量、信息优势、时间结构与操纵风险五个维度。建议优先关注新市场的早期阶段、专业玩家少的长尾事件以及时区差异导致的短暂定价窗口;避免高热度政治事件、主观结算市场与极低流动性品种。下单策略:采用严格的系统化仓位管理。入场前提是自身概率判断显著高于市场隐含概率,并依据分数化凯利公式(通常为1/10–1/4 Kelly)确定仓位,单事件风险敞口不超过15%,以在长期实现风险可控、回撤可承受、优势可复利的稳健增长。套利策略:预测市场中的套利主要体现为四类:跨平台价差(需警惕结算差异)、Dutch Book套利(确定性高但流动性要求严)、结算套利(依赖执行速度)及关联资产对冲(受结构错配限制)。实践关键不在于发现价差,而在于严格对齐合约定义与结算标准,避免因规则细微差异导致的伪套利。聪明钱跟单:链上“聪明钱”信号因滞后性、诱导风险与样本问题,不宜作为主策略。更合理的用法是作为置信度调节因子,用于辅助基于信息与定价偏差的核心判断。
三、Noya.ai:从情报到行动的智能体网络
作为预测市场智能体的早期探索,NOYA 的核心理念是 “Intelligence That Acts(让情报直接行动)”。在链上市场中,单纯的分析与洞察并不足以创造价值——尽管仪表盘、数据分析和研究工具能够帮助用户理解“可能发生什么”,但从洞察到执行之间仍存在大量人工操作、跨链摩擦与执行风险。NOYA 正是基于这一痛点构建:将专业投资流程中“研究 → 形成判断 → 执行 → 持续监控”的完整链路,压缩进一个统一系统,使情报能够直接转化为链上行动。
NOYA 通过整合三大核心层级实现这一目标:
情报层 (Intelligence): 聚合市场数据、代币分析和预测市场信号。抽象层 (Abstraction): 隐藏复杂的跨链路由,用户只需表达意图(Intent)。执行层 (Execution): AI Agent 根据用户授权,跨链、跨协议执行操作。
在产品形态上,NOYA 支持被动收益型用户、主动交易者以及预测市场参与者等不同参与方式,并通过 Omnichain Execution、AI Agents & Intents、Vault Abstraction 等设计,将多链流动性管理、复杂策略执行与风险控制模块化、自动化。
整体系统形成一个持续闭环:Intelligence → Intent → Execution → Monitoring,在确保用户始终掌握资产控制权的前提下,实现从洞察到执行的高效、可验证与低摩擦转化。

四、Noya.ai 的产品体系与演进路径
核心基石:Noya Omnichain Vaults
Omnivaults 是 NOYA 的资本部署层,提供跨链、风险可控的自动化收益策略。用户通过简单的存取操作,将资产交由系统在多链、多协议中持续运行,无需手动调仓或盯盘,核心目标是实现稳定的风险调整后收益而非短期投机。
Omnivaults 覆盖标准收益与循环(Loop)等策略,按资产与风险等级清晰划分,并支持可选的绑定激励机制。在执行层面,系统自动完成跨链路由与优化,并可引入 ZKML 对策略决策进行可验证证明,增强自动化资管的透明度与可信度。整体设计以模块化和可组合为核心,支持未来接入更多资产类型与策略形态。

NOYA  Vault(金库)的技术架构:各金库通过 Registry 统一注册与管理,AccountingManager 负责用户份额(ERC-20)与净值定价;底层通过模块化 Connectors 对接 Aave、Uniswap 等协议并计算跨协议 TVL,依赖 Value Oracle(Chainlink + Uniswap v3 TWAP)完成价格路由与估值;交易与跨链由 Swap Handler(LiFi) 执行;最终,策略执行由 Keeper 多签 触发,形成可组合、可审计的执行闭环。

未来 Alpha:预测市场智能体 (Prediction Market Agent)
NOYA 最具想象空间的模块:情报层持续追踪链上资金行为与链下叙事变化,识别新闻冲击、情绪波动与赔率错配;当在 Polymarket 等预测市场发现概率偏差时,执行层 AI Agent 可在用户授权下调动金库资金进行套利与调仓。同时,Token Intelligence 与 Prediction Market Copilot 为用户提供结构化代币与预测市场分析,将外部信息直接转化为可执行的交易决策。
预测市场智能决策助理(Prediction Market Intelligence Copilot)
NOYA致力于将预测市场从单一事件下注升级为可系统管理的概率资产。其核心模块通过整合市场隐含概率、流动性结构、历史结算与链上聪明钱行为等多元数据,运用期望值(EV)与情景分析识别定价偏差,并重点追踪高胜率钱包的仓位信号以区分信息交易与市场噪音。基于此,Copilot 支持跨市场、跨事件的关联分析,并将实时信号传递至AI Agent,驱动开仓、调仓等自动化执行,实现预测市场的组合管理与动态优化。
核心策略机制包括:
多源 Edge 信息捕获(Multi-source Edge Sourcing):融合 Polymarket 实时赔率、民调数据、私有与外部信息流,对事件隐含概率进行交叉验证,系统性挖掘尚未被充分定价的信息优势。跨市场与跨事件套利(Prediction Market Arbitrage):基于不同市场、不同合约结构或相近事件间的定价差异,构建概率与结构性套利策略,在控制方向性风险的前提下捕获赔率收敛收益。赔率驱动的动态仓位管理(Auto-adjust Positions):当赔率因信息、资金或情绪变化显著偏移时,由 AI Agent 自动调整仓位规模与方向,实现预测市场中的持续优化,而非一次性下注。
NOYA 智能代币情报报告:(NOYA Intelligence Token Reports) 
 NOYA 的机构级研究与决策中枢,目标在于将专业加密投研流程自动化,并直接输出可用于真实资产配置的决策级信号。该模块以标准化报告结构呈现明确的投资立场、综合评分、核心逻辑、关键催化剂与风险提示,并结合实时市场与链上数据持续更新。与传统研究工具不同,NOYA 的情报并不止步于静态分析,而是可通过 AI Agent 以自然语言调用、对比与追问,并被直接输送至执行层,驱动后续的跨链交易、资金配置与组合管理,从而形成“研究—决策—执行”一体化闭环,使 Intelligence 成为自动化资本运作体系中的主动信号源。
NOYA AI Agent (语音与自然语言驱动)
NOYA AI Agent 是平台的执行层,核心作用是将用户意图与市场情报直接转化为经授权的链上行动。用户可通过文本或语音表达目标,Agent 负责规划并执行跨链、跨协议的操作,将研究与执行压缩为一个连续流程。 是 NOYA 降低 DeFi 与预测市场操作门槛的关键产品形态
用户无需理解底层链路、协议或交易路径,仅需通过自然语言或语音表达目标,即可触发 AI Agent 自动规划并执行多步链上操作,实现“意图即执行”。在全程用户签名与非托管前提下,Agent 按“意图理解 → 行动规划 → 用户确认 → 链上执行 → 结果监控”的闭环运行,不替代决策,仅负责高效落地执行,显著降低复杂金融操作的摩擦与门槛。
信任护城河:ZKML 可信执行(Verifiable Execution)
可信执行旨在构建策略、决策与执行的全流程可验证闭环。NOYA引入ZKML作为降低信任假设的关键机制:策略在链下计算,并生成可验证证明,链上验证通过后方可触发相应资金操作。该机制可在不泄露模型细节的前提下,为策略输出提供可信性,并支持可验证回测等衍生能力。目前相关模块在公开文档中仍标注为“开发中”,工程细节仍有待后续披露与验证。
未来 6 个月产品路线图
预测市场高级订单能力:提升策略表达与执行精度,支撑 Agent 化交易。扩展至多预测市场:在 Polymarket 之外接入更多平台,扩大事件覆盖与流动性。多源 Edge 信息采集:与盘口赔率交叉验证,系统性捕获未充分定价的概率偏差。更清晰的代币信号与高阶报告:输出可直接驱动执行的交易信号与深度链上分析。更高级的链上 DeFi 策略组合:上线复杂策略结构,提升资金效率、收益与可扩展性。
五、Noya.ai的生态增长与激励体系
目前 Omnichain Vaults 处于生态发展的早期阶段,其跨链执行与多策略框架已通过验证。
策略与覆盖: 平台已集成 Aave、Morpho 等主流 DeFi 协议,支持稳定币、ETH 及其衍生资产的跨链调配,并初步构建了分层风险策略(如基础收益 vs. Loop 策略)。发展阶段: 当前 TVL 体量有限,核心目标在于功能验证(MVP)与风控框架打磨,架构设计有较强的可组合性,为后续引入复杂资产及高级 Agent 调度预留接口。
激励体系:Kaito 联动与 Space Race 双轮驱动
NOYA 构建了一套以“真实贡献”为锚点,深度绑定内容叙事与流动性的增长飞轮。
生态合作(Kaito Yaps):NOYA 以“AI × DeFi × Agent”的复合叙事登陆 Kaito Leaderboards,配置 总供应量 5% 的无锁仓激励池,并额外预留 1% 用于 Kaito 生态。其机制将内容创作(Yaps)与 Vault 存入、Bond 锁定深度绑定,用户周度贡献转化为决定等级与倍率的 Stars,从而在激励层面同步强化叙事共识与资金长期黏性。增长引擎(Space Race):Space Race 构成 NOYA 的核心增长飞轮,通过以 Stars 作为长期权益凭证,替代传统“资金规模优先”的空投模式。该机制将 Bond 锁仓加成、双向 10% 推荐激励与内容传播统一纳入周度 Points 体系,筛选出高参与度、强共识的长期用户,持续优化社区结构与代币分布。社区建设(Ambassador):NOYA 采用邀请制大使计划,向合格参与者提供社区轮参与资格及基于实际贡献的绩效返佣(最高 10%)。
目前Noya.ai积累超 3,000 名链上用户,X 平台粉丝突破 4.1 万,位列 Kaito Mindshare 榜单前五。这表明 NOYA 在预测市场与 Agent 赛道中已占据了有利的注意力生态位。
此外Noya.ai核心合约通过 Code4rena 与 Hacken 双重审计,并接入 Hacken Extractor。
六、代币经济模型设计及治理
NOYA 采用单代币(Single-token)生态模型,以 $NOYA 作为唯一的价值承载与治理载体。
NOYA 采用回购销毁(Buyback & Burn) 价值捕获机制,协议层在 AI Agent、Omnivaults 与预测市场等产品中产生的价值,通过质押、治理、访问权限及回购销毁等机制实现价值承接,形成 使用 → 收费 → 回购价值闭环,将平台使用度转化为代币长期价值。
项目以 Fair Launch 为核心原则,未引入天使轮或 VC 投资,而是通过低估值($10M FDV)的公开社区轮(Launch-Raise)、Space Race 与空投完成分发,刻意为社区保留非对称上行空间,使筹码结构更偏向活跃用户与长期参与者;团队激励主要来自长期锁定的代币份额。
代币分配 (Distribution)
总供应量: 10 亿 (1,000,000,000) NOYA 初始流通量 (Low Float): 约 12% 估值与融资 (The Raise):融资额:100万美金;估值 (FDV): 1000万美金 

七、预测智能体市场竞争分析
目前,预测市场智能体(Prediction Market Agent)赛道仍处于早期,项目数量有限,较具代表性的包括 Olas(Pearl  Prediction Agents)、Warden(BetFlix) 与 Noya.ai。
从产品形态与用户参与方式看,各代表了目前预测市场智能体赛道的三类路径:
1)Olas(Pearl Prediction Agents):Agent 产品化与可运行交付, 以“运行一个自动化预测 Agent”为参与方式,将预测市场交易封装为可运行的 Agent:用户注资并运行,系统自动完成信息获取、概率判断、下注与结算。需要额外安装的参与方式对普通用户的友好度相对有限。
2)Warden(BetFlix):交互分发与消费级投注平台 , 通过低门槛、强娱乐性的交互体验吸引用户参与,采用交互与分发导向路径,以游戏化、内容化前端降低参与成本,强调预测市场的消费与娱乐属性。其竞争优势主要来自用户增长与分发效率,而非策略或执行层深度。
3)NOYA.ai:以“资金托管 + 策略代执行”为核心,通过 Vault 将预测市场与 DeFi 执行抽象为资管产品,提供低操作、低心智负担的参与方式。若后续叠加 Prediction Market Intelligence 与 Agent 执行模块,有望形成“研究—执行—监控”的一体化工作流。
与 Giza、Almanak 等已实现明确产品交付的 AgentFi 项目相比,NOYA 的 DeFi Agent 目前仍处于相对早期阶段。但 NOYA 的差异化在于其定位与切入层级:其以约 $10M FDV 的公平启动估值进入同一执行与资管叙事赛道,在现阶段具备显著的估值折价与增长潜力。
NOYA:以 Omnichain Vault 为核心的资管封装型 AgentFi 项目,当前交付重点集中在跨链执行与风险控制等基础设施层,上层的 Agent 执行、预测市场能力及 ZKML 相关机制仍处于开发与验证阶段。Giza:可直接运行资管策略(ARMA、Pulse),目前 AgentFi 产品完成度最高。Almanak:定位于 AI Quant for DeFi,通过模型与量化框架输出策略与风险信号,主要面向专业资金与策略管理需求,强调方法论的系统性与结果的可复现性。Theoriq:以多智能体协作(Agent Swarms)为核心的策略与执行框架,强调可扩展的 Agent 协作体系与中长期基础设施叙事,更偏向底层能力建设。Infinit:偏执行层的 Agentic DeFi 终端,通过“意图 → 多步链上操作”的流程编排,显著降低复杂 DeFi 操作的执行门槛,用户对产品价值的感知相对直接。
八、总结:商业逻辑、工程实现及潜在风险
商业逻辑:
NOYA 是当前市场中较为少见的 AI Agent × Prediction Market × ZKML 多重叙事叠加标的,并进一步结合了 Intent 驱动执行 的产品方向。在资产定价层面,其以约 $10M FDV 启动,明显低于同类 AI / DeFAI / Prediction 相关项目常见的 $75M–$100M 区间估值,形成一定的结构性价差。
从设计上看,NOYA 试图将 策略执行(Vault / Agent) 与 信息优势(Prediction Market Intelligence) 统一到同一执行框架中,并通过协议收入回流(fees → buyback & burn)建立价值捕获闭环。尽管项目仍处于早期阶段,但在多叙事叠加与低估值起点的共同作用下,其风险—收益结构更接近一类高赔率、非对称博弈标的。
工程实现: 在可验证的交付层面,NOYA 当前已上线的核心功能为 Omnichain Vaults,提供跨链资产调度、收益策略执行与延迟结算机制,工程实现相对偏基础。其愿景中强调的 Prediction Market Intelligence(Copilot)、NOYA AI Agent 以及 ZKML 驱动的可验证执行仍处于开发阶段,尚未在主网形成完整闭环。现阶段并非成熟的 DeFAI 平台。

潜在风险与关注要点
交付不确定性: 从“基础 Vault”到“全能 Agent”的技术跨度极大,需警惕 Roadmap 延期或 ZKML 落地不及预期的风险。潜在系统风险 : 包含合约安全、跨链桥故障以及预测市场特有的预言机争议(如规则模糊导致无法裁决),任何单点故障都可能造成资金损耗。

免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
查看原文
强化学习:去中心化AI的范式转变作者: 0xjacobzhao | https://linktr.ee/0xjacobzhao 这份独立研究报告由IOSG Ventures支持。研究和写作过程受到Sam Lehman(Pantera Capital)在强化学习方面工作的启发。感谢Ben Fielding(Gensyn.ai)、Gao Yuan(Gradient)、Samuel Dare和Erfan Miahi(Covenant AI)、Shashank Yadav(Fraction AI)、Chao Wang对本文的宝贵建议。本文力求客观和准确,但某些观点涉及主观判断,可能包含偏见。我们感谢读者的理解。

强化学习:去中心化AI的范式转变

作者: 0xjacobzhao | https://linktr.ee/0xjacobzhao
这份独立研究报告由IOSG Ventures支持。研究和写作过程受到Sam Lehman(Pantera Capital)在强化学习方面工作的启发。感谢Ben Fielding(Gensyn.ai)、Gao Yuan(Gradient)、Samuel Dare和Erfan Miahi(Covenant AI)、Shashank Yadav(Fraction AI)、Chao Wang对本文的宝贵建议。本文力求客观和准确,但某些观点涉及主观判断,可能包含偏见。我们感谢读者的理解。
强化学习:去中心化 AI 网络的范式变迁作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 本独立研报由IOSG Ventures支持,研究与写作过程受 Sam Lehman(Pantera Capital) 强化学习研报的启发,感谢 Ben Fielding (Gensyn.ai), Gao Yuan(Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang 对本文提出的宝贵建议。本文力求内容客观准确,部分观点涉及主观判断,难免存在偏差,敬请读者予以理解。 人工智能正从以“模式拟合”为主的统计学习,迈向以“结构化推理”为核心的能力体系,后训练(Post-training)的重要性快速上升。DeepSeek-R1 的出现标志着强化学习在大模型时代的范式级翻身,行业共识形成:预训练构建模型的通用能力基座,强化学习不再只是价值对齐工具,而被证明能够系统提升推理链质量与复杂决策能力,正逐步演化为持续提升智能水平的技术路径。 与此同时,Web3 正通过去中心化算力网络与加密激励体系重构 AI 的生产关系,而强化学习对 rollout 采样、奖励信号与可验证训练的结构性需求,恰与区块链的算力协作、激励分配与可验证执行天然契合。本研报将系统拆解 AI 训练范式与强化学习技术原理,论证强化学习 × Web3 的结构优势,并对 Prime Intellect、Gensyn、Nous Research、Gradient、Grail和Fraction AI等项目进行分析。 一. AI 训练的三阶段:预训练、指令微调与后训练对齐 现代大语言模型(LLM)训练全生命周期通常被划分为三个核心阶段:预训练(Pre-training)、监督微调(SFT)和后训练(Post-training/RL)。三者分别承担“构建世界模型—注入任务能力—塑造推理与价值观”的功能,其计算结构、数据要求与验证难度决定了去中心化的匹配程度。 预训练(Pre-training) 通过大规模自监督学习(Self-supervised Learning)构建模型的语言统计结构与跨模态世界模型,是 LLM 能力的根基。此阶段需在万亿级语料上以全局同步方式训练,依赖数千至数万张 H100 的同构集群,成本占比高达 80–95%,对带宽与数据版权极度敏感,因此必须在高度集中式环境中完成。微调(Supervised Fine-tuning)用于注入任务能力与指令格式,数据量小、成本占比约 5–15%,微调既可以进行全参训练,也可以采用参数高效微调(PEFT)方法,其中 LoRA、Q-LoRA 与 Adapter 是工业界主流。但仍需同步梯度,使其去中心化潜力有限。后训练(Post-training)由多个迭代子阶段构成,决定模型的推理能力、价值观与安全边界,其方法既包括强化学习体系(RLHF、RLAIF、GRPO)也包括无 RL 的偏好优化方法(DPO),以及过程奖励模型(PRM)等。该阶段数据量与成本较低(5–10%),主要集中在 Rollout 与策略更新;其天然支持异步与分布式执行,节点无需持有完整权重,结合可验证计算与链上激励可形成开放的去中心化训练网络,是最适配 Web3 的训练环节。 二. 强化学习技术全景:架构、框架与应用 2.1 强化学习的系统架构与核心环节 强化学习(Reinforcement Learning, RL)通过“环境交互—奖励反馈—策略更新”驱动模型自主改进决策能力,其核心结构可视为由状态、动作、奖励与策略构成的反馈闭环。一个完整的 RL 系统通常包含三类组件:Policy(策略网络)、Rollout(经验采样)与 Learner(策略更新器)。策略与环境交互生成轨迹,Learner 根据奖励信号更新策略,从而形成持续迭代、不断优化的学习过程: 策略网络(Policy):从环境状态生成动作,是系统的决策核心。训练时需集中式反向传播维持一致性;推理时可分发至不同节点并行运行。经验采样(Rollout):节点根据策略执行环境交互,生成状态—动作—奖励等轨迹。该过程高度并行、通信极低,对硬件差异不敏感是最适合在去中心化中扩展的环节。学习器(Learner):聚合全部 Rollout 轨迹并执行策略梯度更新,是唯一对算力、带宽要求最高的模块,因此通常保持中心化或轻中心化部署以确保收敛稳定性。 2.2 强化学习阶段框架(RLHF → RLAIF → PRM → GRPO) 强化学习通常可分为五个阶段,整体流程如下所述: 数据生成阶段(Policy Exploration):在给定输入提示的条件下,策略模型 πθ 生成多条候选推理链或完整轨迹,为后续偏好评估与奖励建模提供样本基础,决定了策略探索的广度。偏好反馈阶段(RLHF / RLAIF):RLHF(Reinforcement Learning from Human Feedback)通过多候选回答、人工偏好标注、训练奖励模型(RM)并用 PPO 优化策略,使模型输出更符合人类价值观,是 GPT-3.5 → GPT-4 的关键一环RLAIF(Reinforcement Learning from AI Feedback)以 AI Judge 或宪法式规则替代人工标注,实现偏好获取自动化,显著降低成本并具备规模化特性,已成为 Anthropic、OpenAI、DeepSeek 等的主流对齐范式。奖励建模阶段(Reward Modeling):偏好对输入奖励模型,学习将输出映射为奖励。RM 教模型“什么是正确答案”,PRM 教模型“如何进行正确推理”。RM(Reward Model)用于评估最终答案的好坏,仅对输出打分:过程奖励模型PRM(Process Reward Model)它不再只评估最终答案,而是为每一步推理、每个 token、每个逻辑段打分,也是 OpenAI o1 与 DeepSeek-R1 的关键技术,本质上是在“教模型如何思考”。奖励验证阶段(RLVR / Reward Verifiability):在奖励信号生成与使用过程中引入“可验证约束”,使奖励尽可能来自可复现的规则、事实或共识,从而降低 reward hacking 与偏差风险,并提升在开放环境中的可审计性与可扩展性。策略优化阶段(Policy Optimization):是在奖励模型给出的信号指导下更新策略参数 θ,以得到更强推理能力、更高安全性与更稳定行为模式的策略 πθ′。主流优化方式包括:PPO(Proximal Policy Optimization): RLHF 的传统优化器,以稳定性见长,但在复杂推理任务中往往面临收敛慢、稳定性不足等局限。GRPO(Group Relative Policy Optimization):是 DeepSeek-R1 的核心创新,通过对候选答案组内优势分布进行建模以估计期望价值,而非简单排序。该方法保留了奖励幅度信息,更适合推理链优化,训练过程更稳定,被视为继 PPO 之后面向深度推理场景的重要强化学习优化框架。DPO(Direct Preference Optimization):非强化学习的后训练方法:不生成轨迹、不建奖励模型,而是直接在偏好对上做优化,成本低、效果稳定,因而被广泛用于 Llama、Gemma 等开源模型的对齐,但不提升推理能力。新策略部署阶段(New Policy Deployment):经过优化后的模型表现为:更强的推理链生成能力(System-2 Reasoning)、更符合人类或 AI 偏好的行为、更低的幻觉率、更高的安全性。模型在持续迭代中不断学习偏好、优化过程、提升决策质量,形成闭环。 2.3 强化学习的产业应用五大分类 强化学习(Reinforcement Learning)已从早期的博弈智能演进为跨产业的自主决策核心框架,其应用场景按照技术成熟度与产业落地程度,可归纳为五大类别,并在各自方向推动了关键突破。 博弈与策略系统(Game & Strategy):是 RL 最早被验证的方向,在 AlphaGo、AlphaZero、AlphaStar、OpenAI Five 等“完美信息 + 明确奖励”的环境中,RL 展示了可与人类专家比肩甚至超越的决策智能,为现代 RL 算法奠定基础。机器人与具身智能(Embodied AI):RL 通过连续控制、动力学建模与环境交互,使机器人学习操控、运动控制和跨模态任务(如 RT-2、RT-X),正快速迈向产业化,是现实世界机器人落地的关键技术路线。数字推理(Digital Reasoning / LLM System-2):RL + PRM 推动大模型从“语言模仿”走向“结构化推理”,代表成果包括 DeepSeek-R1、OpenAI o1/o3、Anthropic Claude 及 AlphaGeometry,其本质是在推理链层面进行奖励优化,而非仅评估最终答案。自动化科学发现与数学优化(Scientific Discovery):RL 在无标签、复杂奖励与巨大搜索空间中寻找最优结构或策略,已实现 AlphaTensor、AlphaDev、Fusion RL 等基础突破,展现出超越人类直觉的探索能力。经济决策与交易系统(Economic Decision-making & Trading):RL 被用于策略优化、高维风险控制与自适应交易系统生成,相较传统量化模型更能在不确定环境中持续学习,是智能金融的重要构成部分。 三. 强化学习与 Web3 的天然匹配 强化学习(RL)与 Web3 的高度契合,源于二者本质上都是“激励驱动系统”。RL 依赖奖励信号优化策略,区块链依靠经济激励协调参与者行为,使两者在机制层面天然一致。RL 的核心需求——大规模异构 Rollout、奖励分配与真实性验证——正是 Web3 的结构优势所在。 推理与训练解耦:强化学习的训练过程可明确拆分为两个阶段: Rollout (探索采样):模型基于当前策略生成大量数据,计算密集型但通信稀疏型的任务。它不需要节点间频繁通信,适合在全球分布的消费级 GPU 上并行生成。Update (参数更新):基于收集到的数据更新模型权重,需高带宽中心化节点完成。 “推理—训练解耦”天然契合去中心化的异构算力结构:Rollout 可外包给开放网络,通过代币机制按贡献结算,而模型更新保持集中化以确保稳定性。 可验证性 (Verifiability):ZK 与 Proof-of-Learning 提供了验证节点是否真实执行推理的手段,解决了开放网络中的诚实性问题。在代码、数学推理等确定性任务中,验证者只需检查答案即可确认工作量,大幅提升去中心化 RL 系统的可信度。激励层,基于代币经济的反馈生产机制:Web3 的代币机制可直接奖励 RLHF/RLAIF 的偏好反馈贡献者,使偏好数据生成具备透明、可结算、无需许可的激励结构;质押与削减(Staking/Slashing)进一步约束反馈质量,形成比传统众包更高效且对齐的反馈市场。多智能体强化学习(MARL)潜力:区块链本质上是公开、透明、持续演化的多智能体环境,账户、合约与智能体不断在激励驱动下调整策略,使其天然具备构建大规模 MARL 实验场的潜力。尽管仍在早期,但其状态公开、执行可验证、激励可编程的特性,为未来 MARL 的发展提供了原则性优势。 四. 经典 Web3 + 强化学习项目解析 基于上述理论框架,我们将对当前生态中最具代表性的项目进行简要分析: Prime Intellect: 异步强化学习范式 prime-rl Prime Intellect 致力于构建全球开放算力市场,降低训练门槛、推动协作式去中心化训练,并发展完整的开源超级智能技术栈。其体系包括:Prime Compute(统一云/分布式算力环境)、INTELLECT 模型家族(10B–100B+)、开放强化学习环境中心(Environments Hub)、以及大规模合成数据引擎(SYNTHETIC-1/2)。 Prime Intellect 核心基础设施组件prime-rl 框架专为异步分布式环境设计与强化学习高度相关,其余包括突破带宽瓶颈的 OpenDiLoCo 通信协议、保障计算完整性的 TopLoc 验证机制等。 Prime Intellect 核心基础设施组件一览 技术基石:prime-rl 异步强化学习框架 prime-rl 是 Prime Intellect 的核心训练引擎,专为大规模异步去中心化环境设计,通过 Actor–Learner 完全解耦实现高吞吐推理与稳定更新。执行者(Rollout Worker) 与 学习者(Trainer) 不再同步阻塞,节点可随时加入或退出,只需持续拉取最新策略并上传生成数据即可: 执行者 Actor (Rollout Workers):负责模型推理和数据生成。Prime Intellect 创新性地在 Actor 端集成了 vLLM 推理引擎 。vLLM 的 PagedAttention 技术和连续批处理(Continuous Batching)能力,使得 Actor 能够以极高的吞吐量生成推理轨迹。学习者 Learner (Trainer):负责策略优化。Learner 从共享的经验回放缓冲区(Experience Buffer)中异步拉取数据进行梯度更新,无需等待所有 Actor 完成当前批次。协调器 (Orchestrator):负责调度模型权重与数据流。 prime-rl 的关键创新点: 完全异步(True Asynchrony):prime-rl 摒弃传统 PPO 的同步范式,不等待慢节点、无需批次对齐,使任意数量与性能的 GPU 都能随时接入,奠定去中心化 RL 的可行性。深度集成 FSDP2 与 MoE:通过 FSDP2 参数切片与 MoE 稀疏激活,prime-rl 让百亿级模型在分布式环境中高效训练,Actor 仅运行活跃专家,大幅降低显存与推理成本。GRPO+(Group Relative Policy Optimization):GRPO 免除 Critic 网络,显著减少计算与显存开销,天然适配异步环境,prime-rl 的 GRPO+ 更通过稳定化机制确保高延迟条件下的可靠收敛。 INTELLECT 模型家族:去中心化 RL 技术成熟度的标志 INTELLECT-1(10B,2024年10月)首次证明 OpenDiLoCo 能在跨三大洲的异构网络中高效训练(通信占比 <2%、算力利用率 98%),打破跨地域训练的物理认知;INTELLECT-2(32B,2025年4月)作为首个 Permissionless RL 模型,验证 prime-rl 与 GRPO+ 在多步延迟、异步环境中的稳定收敛能力,实现全球开放算力参与的去中心化 RL;INTELLECT-3(106B MoE,2025年11月)采用仅激活 12B 参数的稀疏架构,在 512×H200 上训练并实现旗舰级推理性能(AIME 90.8%、GPQA 74.4%、MMLU-Pro 81.9% 等),整体表现已逼近甚至超越规模远大于自身的中心化闭源模型。 Prime Intellect 此外还构建了数个支撑性基础设施:OpenDiLoCo 通过时间稀疏通信与量化权重差,将跨地域训练的通信量降低数百倍,使 INTELLECT-1 在跨三洲网络仍保持 98% 利用率;TopLoc + Verifiers 形成去中心化可信执行层,以激活指纹与沙箱验证确保推理与奖励数据的真实性;SYNTHETIC 数据引擎 则生产大规模高质量推理链,并通过流水线并行让 671B 模型在消费级 GPU 集群上高效运行。这些组件为去中心化 RL 的数据生成、验证与推理吞吐提供了关键的工程底座。INTELLECT 系列证明了这一技术栈可产生成熟的世界级模型,标志着去中心化训练体系从概念阶段进入实用阶段。 Gensyn: 强化学习核心栈RL Swarm与SAPO Gensyn 的目标是将全球闲置算力汇聚成一个开放、无需信任、可无限扩展的 AI 训练基础设施。其核心包括跨设备标准化执行层、点对点协调网络与无需信任的任务验证系统,并通过智能合约自动分配任务与奖励。围绕强化学习的特点,Gensyn 引入 RL Swarm、SAPO 与 SkipPipe 等核心机制等机制,将生成、评估、更新三个环节解耦,利用全球异构 GPU 组成的“蜂群”实现集体进化。其最终交付的不是单纯的算力,而是可验证的智能(Verifiable Intelligence)。 Gensyn堆栈的强化学习应用 RL Swarm:去中心化的协作式强化学习引擎  RL Swarm 展示了一种全新的协作模式。它不再是简单的任务分发,而是一个模拟人类社会学习的去中心化的“生成—评估—更新”循环,类比协作式学习过程,无限循环: Solvers(执行者): 负责本地模型推理与 Rollout 生成,节点异构无碍。Gensyn 在本地集成高吞吐推理引擎(如 CodeZero),可输出完整轨迹而非仅答案。Proposers(出题者): 动态生成任务(数学题、代码问题等),支持任务多样性与类 Curriculum Learning 的难度自适应。Evaluators(评估者): 使用冻结的“裁判模型”或规则对本地 Rollout 进行评估,生成本地奖励信号。评估过程可被审计,减少作恶空间。 三者共同组成一个 P2P 的 RL 组织结构,无需中心化调度即可完成大规模协作学习。 SAPO:为去中心化重构的策略优化算法:  SAPO(Swarm Sampling Policy Optimization)以“共享 Rollout 并过滤无梯度信号样本,而非共享梯度”为核心,通过大规模去中心化的 Rollout 采样,并将接收的 Rollout 视为本地生成,从而在无中心协调、节点延迟差异显著的环境中保持稳定收敛。相较依赖 Critic 网络、计算成本较高的 PPO,或基于组内优势估计的 GRPO,SAPO 以极低带宽使消费级 GPU 也能有效参与大规模强化学习优化。 通过 RL Swarm 与 SAPO,Gensyn 证明了强化学习(尤其是后训练阶段的 RLVR)天然适配去中心化架构——因为其更依赖于大规模、多样化的探索(Rollout),而非高频参数同步。结合 PoL 与 Verde 的验证体系,Gensyn 为万亿级参数模型的训练提供了一条不再依赖单一科技巨头的替代路径:一个由全球数百万异构 GPU 组成的、自我演化的超级智能网络。 Nous Research:可验证强化学习环境Atropos Nous Research在构建一套 去中心化、可自我进化的认知基础设施。其核心组件——Hermes、Atropos、DisTrO、Psyche 与 World Sim被组织成一个持续闭环的智能演化系统。不同于传统“预训练—后训练—推理”线性流程,Nous 采用 DPO、GRPO、拒绝采样等强化学习技术,将数据生成、验证、学习与推理统一为连续反馈回路,打造持续自我改进的闭环 AI 生态。 Nous Research 组件总览 模型层:Hermes 与推理能力的演进 Hermes 系列是 Nous Research 面向用户的主要模型接口,其演进清晰展示了行业从传统 SFT/DPO 对齐向推理强化学习(Reasoning RL)迁移的路径: Hermes 1–3:指令对齐与早期代理能力:Hermes 1–3 依靠低成本 DPO 完成稳健指令对齐,并在 Hermes 3 借助合成数据与首次引入的 Atropos 验证机制。Hermes 4 / DeepHermes:通过思维链将 System-2 式慢思考写入权重,以 Test-Time Scaling 提升数学与代码性能,并依赖“拒绝采样 + Atropos 验证”构建高纯度推理数据。DeepHermes 进一步采用 GRPO 替代难以分布式落地的 PPO,使推理 RL 能在 Psyche 去中心化 GPU 网络上运行,为开源推理 RL 的可扩展化奠定工程基础。 Atropos:可验证奖励驱动的强化学习环境 Atropos 是 Nous RL 体系的真正枢纽。它将提示、工具调用、代码执行和多轮交互封装成标准化 RL 环境,可直接验证输出是否正确,从而提供确定性奖励信号,替代昂贵且不可扩展的人类标注。更重要的是,在去中心化训练网络 Psyche 中,Atropos 充当“裁判”,用于验证节点是否真实提升策略,支持可审计的 Proof-of-Learning,从根本上解决分布式 RL 中的奖励可信性问题。 DisTrO 与 Psyche:去中心化强化学习的优化器层 传统 RLF(RLHF/RLAIF)训练依赖中心化高带宽集群,这是开源无法复制的核心壁垒。DisTrO 通过动量解耦与梯度压缩,将 RL 的通信成本降低几个数量级,使训练能够在互联网带宽上运行;Psyche 则将这一训练机制部署在链上网络,使节点可以在本地完成推理、验证、奖励评估与权重更新,形成完整的 RL 闭环。 在 Nous 的体系中, Atropos 验证思维链;DisTrO 压缩训练通信;Psyche 运行 RL 循环;World Sim 提供复杂环境;Forge 采集真实推理;Hermes 将所有学习写入权重。强化学习不仅是一个训练阶段,而是 Nous 架构中 连接数据、环境、模型与基础设施的核心协议,让 Hermes成为一个 能在开源算力网络上持续自我改进的活体系统。 Gradient Network:强化学习架构Echo Gradient Network 核心愿景是通过“开放智能协议栈”(Open Intelligence Stack)重构 AI 的计算范式。Gradient 的技术栈由一组可独立演化、又异构协同的核心协议组成。其体系从底层通信到上层智能协作依次包括:Parallax(分布式推理)、Echo(去中心化 RL 训练)、Lattica(P2P 网络)、SEDM / Massgen / Symphony / CUAHarm(记忆、协作、安全)、VeriLLM(可信验证)、Mirage(高保真仿真),共同构成持续演化的去中心化智能基础设施。 Echo — 强化学习训练架构 Echo 是 Gradient 的强化学习框架,其核心设计理念在于解耦强化学习中的训练、推理与数据(奖励)路径,使 Rollout 生成、策略优化与奖励评估能够在异构环境中独立扩展与调度。在由推理侧与训练侧节点组成的异构网络中协同运行,以轻量同步机制在广域异构环境中维持训练稳定性,有效缓解传统 DeepSpeed RLHF / VERL 中推理与训练混跑导致的 SPMD 失效与 GPU 利用率瓶颈。 Echo 采用“推理–训练双群架构”实现算力利用最大化,双群各自独立运行,互不阻塞: 最大化采样吞吐:推理群 Inference Swarm 由消费级 GPU 与边缘设备组成,通过 Parallax 以 pipeline‐parallel 构建高吞吐采样器,专注于轨迹生成;最大化梯度算力:训练群Training Swarm 由可运行于中心化集群或全球多地的消费级 GPU 网络,负责梯度更新、参数同步与 LoRA 微调,专注于学习过程。 为维持策略与数据的一致性,Echo 提供 顺序(Sequential) 与异步(Asynchronous) 两类轻量级同步协议,实现策略权重与轨迹的双向一致性管理: 顺序拉取(Pull)模式|精度优先 :训练侧在拉取新轨迹前强制推理节点刷新模型版本,从而确保轨迹新鲜度,适合对策略陈旧高度敏感的任务;异步推拉(Push–Pull)模式|效率优先:推理侧持续生成带版本标签的轨迹,训练侧依自身节奏消费,协调器监控版本偏差并触发权重刷新,最大化设备利用率。 在底层,Echo 构建于 Parallax(低带宽环境下的异构推理)与轻量化分布式训练组件(如 VERL)之上,依赖 LoRA 降低跨节点同步成本,使强化学习可在全球异构网络上稳定运行。 Grail:Bittensor 生态的强化学习 Bittensor 通过其独特的 Yuma 共识机制,构建了一个巨大的、稀疏的、非平稳的奖励函数网络。 Bittensor生态中的Covenant AI 则通过 SN3 Templar、SN39 Basilica 与 SN81 Grail 构建了从预训练到 RL 后训练的垂直一体化流水线。其中,SN3 Templar 负责基础模型的预训练,SN39 Basilica 提供分布式算力市场,SN81 Grail 则作为面向 RL 后训练的“可验证推理层”,承载 RLHF / RLAIF 的核心流程,完成从基础模型到对齐策略的闭环优化。 GRAIL目标是以密码学方式证明每条强化学习 rollout 的真实性与模型身份绑定,确保 RLHF 能够在无需信任的环境中被安全执行。协议通过三层机制建立可信链条: 确定性挑战生成:利用 drand 随机信标与区块哈希生成不可预测但可复现的挑战任务(如 SAT、GSM8K),杜绝预计算作弊;通过 PRF 索引采样与 sketch commitments,使验证者以极低成本抽检 token-level logprob 与推理链,确认 rollout 确由声明模型生成;模型身份绑定:将推理过程与模型权重指纹及 token 分布的结构性签名绑定,确保替换模型或结果重放都会被立即识别。由此,为 RL 中推理轨迹(rollout)提供了真实性根基。 在此机制上,Grail 子网实现了 GRPO 风格的可验证后训练流程:矿工为同一题目生成多条推理路径,验证者依据正确性、推理链质量与 SAT 满足度评分,并将归一化结果写入链上,作为 TAO 权重。公开实验显示,该框架已将 Qwen2.5-1.5B 的 MATH 准确率从 12.7% 提升至 47.6%,证明其既能防作弊,也能显著强化模型能力。在 Covenant AI 的训练栈中,Grail 是去中心化 RLVR/RLAIF 的信任与执行基石,目前尚未正式主网上线。 Fraction AI:基于竞争的强化学习RLFC Fraction AI 的架构明确围绕 竞争强化学习(Reinforcement Learning from Competition, RLFC) 和游戏化数据标注构建 ,将传统 RLHF 的静态奖励与人工标注替换为开放、动态的竞争环境。代理在不同 Spaces 中对抗,其相对排名与 AI 法官评分共同构成实时奖励,使对齐过程演变为持续在线的多智能体博弈系统。 传统RLHF与Fraction AI的RLFC之间的核心差异: RLFC 的核心价值在于奖励不再来自单一模型,而来自不断演化的对手与评估者,避免奖励模型被利用,并通过策略多样性防止生态陷入局部最优。Spaces 的结构决定博弈性质(零和或正和),在对抗与协作中推动复杂行为涌现。 在系统架构上,Fraction AI 将训练过程拆解为四个关键组件: Agents:基于开源 LLM 的轻量策略单元,通过 QLoRA 以差分权重扩展,低成本更新;Spaces:隔离的任务域环境,代理付费进入并以胜负获得奖励;AI Judges:以 RLAIF 构建的即时奖励层,提供可扩展、去中心化的评估;Proof-of-Learning:将策略更新绑定到具体竞争结果,确保训练过程可验证、防作弊。 Fraction AI 的本质是构建了一个人机协同的进化引擎”。用户作为策略层的“元优化者” (Meta-optimizer),通过提示工程(Prompt Engineering)和超参配置引导探索方向;而代理在微观的竞争中自动生成海量的高质量偏好数据对 (Preference Pairs)。这种模式让数据标注通过 “去信任化微调” (Trustless Fine-tuning) 实现了商业闭环 。 强化学习 Web3项目 架构比较 五. 总结与展望:强化学习 × Web3 的路径与机会 基于对上述前沿项目的解构分析,我们观察到:尽管各团队的切入点(算法、工程或市场)各异,但当强化学习(RL)与 Web3 结合时,其底层架构逻辑皆收敛为一个高度一致的“解耦-验证-激励”范式。这不仅是技术上的巧合,更是去中心化网络适配强化学习独特属性的必然结果。 强化学习通用架构特征:解决核心的物理限制与信任问题 推训物理分离 (Decoupling of Rollouts & Learning) —— 默认计算拓扑 通信稀疏、可并行的 Rollout 外包给全球消费级 GPU,高带宽的参数更新集中于少量训练节点,从 Prime Intellect 的异步 Actor–Learner 到 Gradient Echo 的双群架构皆如此。 验证驱动的信任层 (Verification-Driven Trust) —— 基础设施化 在无需许可的网络中,计算真实性必须通过数学与机制设计强制保障,代表实现包括 Gensyn 的 PoL、Prime Intellect 的 TOPLOC 与 Grail 的密码学验证。 代币化的激励闭环 (Tokenized Incentive Loop) —— 市场自我调节  算力供给、数据生成、验证排序与奖励分配形成闭环,通过奖励驱动参与、通过 Slash 抑制作弊,使网络在开放环境中依然保持稳定与持续演进。 差异化技术路径:一致架构下的不同“突破点” 尽管架构趋同,但各项目根据自身基因选择了不同的技术护城河: 算法突破派 (Nous Research):试图从数学底层解决分布式训练的根本矛盾(带宽瓶颈)。其 DisTrO 优化器旨在将梯度通信量压缩数千倍,目标是让家庭宽带也能跑得动大模型训练,这是对物理限制的“降维打击”。系统工程派 (Prime Intellect, Gensyn, Gradient):侧重于构建下一代的“AI 运行时系统”。Prime Intellect的 ShardCast 和 Gradient 的 Parallax 都是为了在现有的网络条件下,通过极致的工程手段压榨出最高的异构集群效率。市场博弈派 (Bittensor, Fraction AI):专注奖励函数(Reward Function)的设计。通过设计精妙的评分机制,引导矿工自发寻找最优策略,来加速智能涌现。 优势、挑战与终局展望 在强化学习与 Web3 结合的范式下,系统级优势首先体现在 成本结构与治理结构的重写。 成本重塑:RL 后训练(Post-training)对采样(Rollout)的需求是无限的,Web3 能以极低成本调动全球长尾算力,这是中心化云厂商难以比拟的成本优势。主权对齐 (Sovereign Alignment):打破大厂对 AI 价值观(Alignment)的垄断,社区可以通过 Token 投票决定模型“什么是好的回答”,实现 AI 治理的民主化。 与此同时,这一体系也面临两大结构性约束。 带宽墙 (Bandwidth Wall):尽管有 DisTrO 等创新,物理延迟仍限制了超大参数模型(70B+)的全量训练,目前 Web3 AI 更多局限于微调和推理。古德哈特定律 (Reward Hacking):在高度激励的网络中,矿工极易“过拟合”奖励规则(刷分)而非提升真实智能。设计防作弊的鲁棒奖励函数是永恒的博弈。恶意拜占庭式节点攻击(BYZANTINE worker):通过对训练信号的主动操纵与投毒破坏模型收敛。核心不在于持续设计防作弊的奖励函数,而在于构建具备对抗性鲁棒性的机制。 强化学习与 Web3 的结合,本质是在重写“智能是如何被生产、对齐并分配价值”的机制。其演进路径可概括为三条互补方向: 去中心化推训网络:从算力矿机到策略网络,将并行且可验证的 Rollout 外包给全球长尾 GPU,短期聚焦可验证推理市场,中期演化为按任务聚类的强化学习子网;偏好与奖励的资产化:从标注劳工到数据股权。 实现偏好与奖励的资产化,将高质量反馈与 Reward Model 变为可治理、可分配的数据资产,从“标注劳工”升级为“数据股权”垂直领域的“小而美”进化:在结果可验证、收益可量化的垂直场景中孕育小而强的专用 RL Agents,如 DeFi 策略执行、代码生成,使策略改进与价值捕获直接绑定并有望跑赢通用闭源模型。 总体来看,强化学习 × Web3 的真正机会不在于复制一个去中心化版 OpenAI,而在于重写“智能生产关系”:让训练执行成为开放算力市场,让奖励与偏好成为可治理的链上资产,让智能带来的价值不再集中于平台,而在训练者、对齐者与使用者之间重新分配。 免责声明:本文在创作过程中借助了 ChatGPT-5 与Gemini 3的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

强化学习:去中心化 AI 网络的范式变迁

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao

本独立研报由IOSG Ventures支持,研究与写作过程受 Sam Lehman(Pantera Capital) 强化学习研报的启发,感谢 Ben Fielding (Gensyn.ai), Gao Yuan(Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang 对本文提出的宝贵建议。本文力求内容客观准确,部分观点涉及主观判断,难免存在偏差,敬请读者予以理解。
人工智能正从以“模式拟合”为主的统计学习,迈向以“结构化推理”为核心的能力体系,后训练(Post-training)的重要性快速上升。DeepSeek-R1 的出现标志着强化学习在大模型时代的范式级翻身,行业共识形成:预训练构建模型的通用能力基座,强化学习不再只是价值对齐工具,而被证明能够系统提升推理链质量与复杂决策能力,正逐步演化为持续提升智能水平的技术路径。
与此同时,Web3 正通过去中心化算力网络与加密激励体系重构 AI 的生产关系,而强化学习对 rollout 采样、奖励信号与可验证训练的结构性需求,恰与区块链的算力协作、激励分配与可验证执行天然契合。本研报将系统拆解 AI 训练范式与强化学习技术原理,论证强化学习 × Web3 的结构优势,并对 Prime Intellect、Gensyn、Nous Research、Gradient、Grail和Fraction AI等项目进行分析。
一. AI 训练的三阶段:预训练、指令微调与后训练对齐
现代大语言模型(LLM)训练全生命周期通常被划分为三个核心阶段:预训练(Pre-training)、监督微调(SFT)和后训练(Post-training/RL)。三者分别承担“构建世界模型—注入任务能力—塑造推理与价值观”的功能,其计算结构、数据要求与验证难度决定了去中心化的匹配程度。
预训练(Pre-training) 通过大规模自监督学习(Self-supervised Learning)构建模型的语言统计结构与跨模态世界模型,是 LLM 能力的根基。此阶段需在万亿级语料上以全局同步方式训练,依赖数千至数万张 H100 的同构集群,成本占比高达 80–95%,对带宽与数据版权极度敏感,因此必须在高度集中式环境中完成。微调(Supervised Fine-tuning)用于注入任务能力与指令格式,数据量小、成本占比约 5–15%,微调既可以进行全参训练,也可以采用参数高效微调(PEFT)方法,其中 LoRA、Q-LoRA 与 Adapter 是工业界主流。但仍需同步梯度,使其去中心化潜力有限。后训练(Post-training)由多个迭代子阶段构成,决定模型的推理能力、价值观与安全边界,其方法既包括强化学习体系(RLHF、RLAIF、GRPO)也包括无 RL 的偏好优化方法(DPO),以及过程奖励模型(PRM)等。该阶段数据量与成本较低(5–10%),主要集中在 Rollout 与策略更新;其天然支持异步与分布式执行,节点无需持有完整权重,结合可验证计算与链上激励可形成开放的去中心化训练网络,是最适配 Web3 的训练环节。

二. 强化学习技术全景:架构、框架与应用
2.1 强化学习的系统架构与核心环节
强化学习(Reinforcement Learning, RL)通过“环境交互—奖励反馈—策略更新”驱动模型自主改进决策能力,其核心结构可视为由状态、动作、奖励与策略构成的反馈闭环。一个完整的 RL 系统通常包含三类组件:Policy(策略网络)、Rollout(经验采样)与 Learner(策略更新器)。策略与环境交互生成轨迹,Learner 根据奖励信号更新策略,从而形成持续迭代、不断优化的学习过程:

策略网络(Policy):从环境状态生成动作,是系统的决策核心。训练时需集中式反向传播维持一致性;推理时可分发至不同节点并行运行。经验采样(Rollout):节点根据策略执行环境交互,生成状态—动作—奖励等轨迹。该过程高度并行、通信极低,对硬件差异不敏感是最适合在去中心化中扩展的环节。学习器(Learner):聚合全部 Rollout 轨迹并执行策略梯度更新,是唯一对算力、带宽要求最高的模块,因此通常保持中心化或轻中心化部署以确保收敛稳定性。
2.2 强化学习阶段框架(RLHF → RLAIF → PRM → GRPO)
强化学习通常可分为五个阶段,整体流程如下所述:

数据生成阶段(Policy Exploration):在给定输入提示的条件下,策略模型 πθ 生成多条候选推理链或完整轨迹,为后续偏好评估与奖励建模提供样本基础,决定了策略探索的广度。偏好反馈阶段(RLHF / RLAIF):RLHF(Reinforcement Learning from Human Feedback)通过多候选回答、人工偏好标注、训练奖励模型(RM)并用 PPO 优化策略,使模型输出更符合人类价值观,是 GPT-3.5 → GPT-4 的关键一环RLAIF(Reinforcement Learning from AI Feedback)以 AI Judge 或宪法式规则替代人工标注,实现偏好获取自动化,显著降低成本并具备规模化特性,已成为 Anthropic、OpenAI、DeepSeek 等的主流对齐范式。奖励建模阶段(Reward Modeling):偏好对输入奖励模型,学习将输出映射为奖励。RM 教模型“什么是正确答案”,PRM 教模型“如何进行正确推理”。RM(Reward Model)用于评估最终答案的好坏,仅对输出打分:过程奖励模型PRM(Process Reward Model)它不再只评估最终答案,而是为每一步推理、每个 token、每个逻辑段打分,也是 OpenAI o1 与 DeepSeek-R1 的关键技术,本质上是在“教模型如何思考”。奖励验证阶段(RLVR / Reward Verifiability):在奖励信号生成与使用过程中引入“可验证约束”,使奖励尽可能来自可复现的规则、事实或共识,从而降低 reward hacking 与偏差风险,并提升在开放环境中的可审计性与可扩展性。策略优化阶段(Policy Optimization):是在奖励模型给出的信号指导下更新策略参数 θ,以得到更强推理能力、更高安全性与更稳定行为模式的策略 πθ′。主流优化方式包括:PPO(Proximal Policy Optimization): RLHF 的传统优化器,以稳定性见长,但在复杂推理任务中往往面临收敛慢、稳定性不足等局限。GRPO(Group Relative Policy Optimization):是 DeepSeek-R1 的核心创新,通过对候选答案组内优势分布进行建模以估计期望价值,而非简单排序。该方法保留了奖励幅度信息,更适合推理链优化,训练过程更稳定,被视为继 PPO 之后面向深度推理场景的重要强化学习优化框架。DPO(Direct Preference Optimization):非强化学习的后训练方法:不生成轨迹、不建奖励模型,而是直接在偏好对上做优化,成本低、效果稳定,因而被广泛用于 Llama、Gemma 等开源模型的对齐,但不提升推理能力。新策略部署阶段(New Policy Deployment):经过优化后的模型表现为:更强的推理链生成能力(System-2 Reasoning)、更符合人类或 AI 偏好的行为、更低的幻觉率、更高的安全性。模型在持续迭代中不断学习偏好、优化过程、提升决策质量,形成闭环。

2.3 强化学习的产业应用五大分类
强化学习(Reinforcement Learning)已从早期的博弈智能演进为跨产业的自主决策核心框架,其应用场景按照技术成熟度与产业落地程度,可归纳为五大类别,并在各自方向推动了关键突破。
博弈与策略系统(Game & Strategy):是 RL 最早被验证的方向,在 AlphaGo、AlphaZero、AlphaStar、OpenAI Five 等“完美信息 + 明确奖励”的环境中,RL 展示了可与人类专家比肩甚至超越的决策智能,为现代 RL 算法奠定基础。机器人与具身智能(Embodied AI):RL 通过连续控制、动力学建模与环境交互,使机器人学习操控、运动控制和跨模态任务(如 RT-2、RT-X),正快速迈向产业化,是现实世界机器人落地的关键技术路线。数字推理(Digital Reasoning / LLM System-2):RL + PRM 推动大模型从“语言模仿”走向“结构化推理”,代表成果包括 DeepSeek-R1、OpenAI o1/o3、Anthropic Claude 及 AlphaGeometry,其本质是在推理链层面进行奖励优化,而非仅评估最终答案。自动化科学发现与数学优化(Scientific Discovery):RL 在无标签、复杂奖励与巨大搜索空间中寻找最优结构或策略,已实现 AlphaTensor、AlphaDev、Fusion RL 等基础突破,展现出超越人类直觉的探索能力。经济决策与交易系统(Economic Decision-making & Trading):RL 被用于策略优化、高维风险控制与自适应交易系统生成,相较传统量化模型更能在不确定环境中持续学习,是智能金融的重要构成部分。
三. 强化学习与 Web3 的天然匹配
强化学习(RL)与 Web3 的高度契合,源于二者本质上都是“激励驱动系统”。RL 依赖奖励信号优化策略,区块链依靠经济激励协调参与者行为,使两者在机制层面天然一致。RL 的核心需求——大规模异构 Rollout、奖励分配与真实性验证——正是 Web3 的结构优势所在。
推理与训练解耦:强化学习的训练过程可明确拆分为两个阶段:
Rollout (探索采样):模型基于当前策略生成大量数据,计算密集型但通信稀疏型的任务。它不需要节点间频繁通信,适合在全球分布的消费级 GPU 上并行生成。Update (参数更新):基于收集到的数据更新模型权重,需高带宽中心化节点完成。
“推理—训练解耦”天然契合去中心化的异构算力结构:Rollout 可外包给开放网络,通过代币机制按贡献结算,而模型更新保持集中化以确保稳定性。
可验证性 (Verifiability):ZK 与 Proof-of-Learning 提供了验证节点是否真实执行推理的手段,解决了开放网络中的诚实性问题。在代码、数学推理等确定性任务中,验证者只需检查答案即可确认工作量,大幅提升去中心化 RL 系统的可信度。激励层,基于代币经济的反馈生产机制:Web3 的代币机制可直接奖励 RLHF/RLAIF 的偏好反馈贡献者,使偏好数据生成具备透明、可结算、无需许可的激励结构;质押与削减(Staking/Slashing)进一步约束反馈质量,形成比传统众包更高效且对齐的反馈市场。多智能体强化学习(MARL)潜力:区块链本质上是公开、透明、持续演化的多智能体环境,账户、合约与智能体不断在激励驱动下调整策略,使其天然具备构建大规模 MARL 实验场的潜力。尽管仍在早期,但其状态公开、执行可验证、激励可编程的特性,为未来 MARL 的发展提供了原则性优势。
四. 经典 Web3 + 强化学习项目解析
基于上述理论框架,我们将对当前生态中最具代表性的项目进行简要分析:
Prime Intellect: 异步强化学习范式 prime-rl
Prime Intellect 致力于构建全球开放算力市场,降低训练门槛、推动协作式去中心化训练,并发展完整的开源超级智能技术栈。其体系包括:Prime Compute(统一云/分布式算力环境)、INTELLECT 模型家族(10B–100B+)、开放强化学习环境中心(Environments Hub)、以及大规模合成数据引擎(SYNTHETIC-1/2)。
Prime Intellect 核心基础设施组件prime-rl 框架专为异步分布式环境设计与强化学习高度相关,其余包括突破带宽瓶颈的 OpenDiLoCo 通信协议、保障计算完整性的 TopLoc 验证机制等。
Prime Intellect 核心基础设施组件一览

技术基石:prime-rl 异步强化学习框架
prime-rl 是 Prime Intellect 的核心训练引擎,专为大规模异步去中心化环境设计,通过 Actor–Learner 完全解耦实现高吞吐推理与稳定更新。执行者(Rollout Worker) 与 学习者(Trainer) 不再同步阻塞,节点可随时加入或退出,只需持续拉取最新策略并上传生成数据即可:

执行者 Actor (Rollout Workers):负责模型推理和数据生成。Prime Intellect 创新性地在 Actor 端集成了 vLLM 推理引擎 。vLLM 的 PagedAttention 技术和连续批处理(Continuous Batching)能力,使得 Actor 能够以极高的吞吐量生成推理轨迹。学习者 Learner (Trainer):负责策略优化。Learner 从共享的经验回放缓冲区(Experience Buffer)中异步拉取数据进行梯度更新,无需等待所有 Actor 完成当前批次。协调器 (Orchestrator):负责调度模型权重与数据流。
prime-rl 的关键创新点:
完全异步(True Asynchrony):prime-rl 摒弃传统 PPO 的同步范式,不等待慢节点、无需批次对齐,使任意数量与性能的 GPU 都能随时接入,奠定去中心化 RL 的可行性。深度集成 FSDP2 与 MoE:通过 FSDP2 参数切片与 MoE 稀疏激活,prime-rl 让百亿级模型在分布式环境中高效训练,Actor 仅运行活跃专家,大幅降低显存与推理成本。GRPO+(Group Relative Policy Optimization):GRPO 免除 Critic 网络,显著减少计算与显存开销,天然适配异步环境,prime-rl 的 GRPO+ 更通过稳定化机制确保高延迟条件下的可靠收敛。
INTELLECT 模型家族:去中心化 RL 技术成熟度的标志
INTELLECT-1(10B,2024年10月)首次证明 OpenDiLoCo 能在跨三大洲的异构网络中高效训练(通信占比 <2%、算力利用率 98%),打破跨地域训练的物理认知;INTELLECT-2(32B,2025年4月)作为首个 Permissionless RL 模型,验证 prime-rl 与 GRPO+ 在多步延迟、异步环境中的稳定收敛能力,实现全球开放算力参与的去中心化 RL;INTELLECT-3(106B MoE,2025年11月)采用仅激活 12B 参数的稀疏架构,在 512×H200 上训练并实现旗舰级推理性能(AIME 90.8%、GPQA 74.4%、MMLU-Pro 81.9% 等),整体表现已逼近甚至超越规模远大于自身的中心化闭源模型。
Prime Intellect 此外还构建了数个支撑性基础设施:OpenDiLoCo 通过时间稀疏通信与量化权重差,将跨地域训练的通信量降低数百倍,使 INTELLECT-1 在跨三洲网络仍保持 98% 利用率;TopLoc + Verifiers 形成去中心化可信执行层,以激活指纹与沙箱验证确保推理与奖励数据的真实性;SYNTHETIC 数据引擎 则生产大规模高质量推理链,并通过流水线并行让 671B 模型在消费级 GPU 集群上高效运行。这些组件为去中心化 RL 的数据生成、验证与推理吞吐提供了关键的工程底座。INTELLECT 系列证明了这一技术栈可产生成熟的世界级模型,标志着去中心化训练体系从概念阶段进入实用阶段。
Gensyn: 强化学习核心栈RL Swarm与SAPO
Gensyn 的目标是将全球闲置算力汇聚成一个开放、无需信任、可无限扩展的 AI 训练基础设施。其核心包括跨设备标准化执行层、点对点协调网络与无需信任的任务验证系统,并通过智能合约自动分配任务与奖励。围绕强化学习的特点,Gensyn 引入 RL Swarm、SAPO 与 SkipPipe 等核心机制等机制,将生成、评估、更新三个环节解耦,利用全球异构 GPU 组成的“蜂群”实现集体进化。其最终交付的不是单纯的算力,而是可验证的智能(Verifiable Intelligence)。
Gensyn堆栈的强化学习应用

RL Swarm:去中心化的协作式强化学习引擎
 RL Swarm 展示了一种全新的协作模式。它不再是简单的任务分发,而是一个模拟人类社会学习的去中心化的“生成—评估—更新”循环,类比协作式学习过程,无限循环:
Solvers(执行者): 负责本地模型推理与 Rollout 生成,节点异构无碍。Gensyn 在本地集成高吞吐推理引擎(如 CodeZero),可输出完整轨迹而非仅答案。Proposers(出题者): 动态生成任务(数学题、代码问题等),支持任务多样性与类 Curriculum Learning 的难度自适应。Evaluators(评估者): 使用冻结的“裁判模型”或规则对本地 Rollout 进行评估,生成本地奖励信号。评估过程可被审计,减少作恶空间。
三者共同组成一个 P2P 的 RL 组织结构,无需中心化调度即可完成大规模协作学习。

SAPO:为去中心化重构的策略优化算法:  SAPO(Swarm Sampling Policy Optimization)以“共享 Rollout 并过滤无梯度信号样本,而非共享梯度”为核心,通过大规模去中心化的 Rollout 采样,并将接收的 Rollout 视为本地生成,从而在无中心协调、节点延迟差异显著的环境中保持稳定收敛。相较依赖 Critic 网络、计算成本较高的 PPO,或基于组内优势估计的 GRPO,SAPO 以极低带宽使消费级 GPU 也能有效参与大规模强化学习优化。
通过 RL Swarm 与 SAPO,Gensyn 证明了强化学习(尤其是后训练阶段的 RLVR)天然适配去中心化架构——因为其更依赖于大规模、多样化的探索(Rollout),而非高频参数同步。结合 PoL 与 Verde 的验证体系,Gensyn 为万亿级参数模型的训练提供了一条不再依赖单一科技巨头的替代路径:一个由全球数百万异构 GPU 组成的、自我演化的超级智能网络。
Nous Research:可验证强化学习环境Atropos
Nous Research在构建一套 去中心化、可自我进化的认知基础设施。其核心组件——Hermes、Atropos、DisTrO、Psyche 与 World Sim被组织成一个持续闭环的智能演化系统。不同于传统“预训练—后训练—推理”线性流程,Nous 采用 DPO、GRPO、拒绝采样等强化学习技术,将数据生成、验证、学习与推理统一为连续反馈回路,打造持续自我改进的闭环 AI 生态。
Nous Research 组件总览

模型层:Hermes 与推理能力的演进
Hermes 系列是 Nous Research 面向用户的主要模型接口,其演进清晰展示了行业从传统 SFT/DPO 对齐向推理强化学习(Reasoning RL)迁移的路径:
Hermes 1–3:指令对齐与早期代理能力:Hermes 1–3 依靠低成本 DPO 完成稳健指令对齐,并在 Hermes 3 借助合成数据与首次引入的 Atropos 验证机制。Hermes 4 / DeepHermes:通过思维链将 System-2 式慢思考写入权重,以 Test-Time Scaling 提升数学与代码性能,并依赖“拒绝采样 + Atropos 验证”构建高纯度推理数据。DeepHermes 进一步采用 GRPO 替代难以分布式落地的 PPO,使推理 RL 能在 Psyche 去中心化 GPU 网络上运行,为开源推理 RL 的可扩展化奠定工程基础。
Atropos:可验证奖励驱动的强化学习环境
Atropos 是 Nous RL 体系的真正枢纽。它将提示、工具调用、代码执行和多轮交互封装成标准化 RL 环境,可直接验证输出是否正确,从而提供确定性奖励信号,替代昂贵且不可扩展的人类标注。更重要的是,在去中心化训练网络 Psyche 中,Atropos 充当“裁判”,用于验证节点是否真实提升策略,支持可审计的 Proof-of-Learning,从根本上解决分布式 RL 中的奖励可信性问题。

DisTrO 与 Psyche:去中心化强化学习的优化器层
传统 RLF(RLHF/RLAIF)训练依赖中心化高带宽集群,这是开源无法复制的核心壁垒。DisTrO 通过动量解耦与梯度压缩,将 RL 的通信成本降低几个数量级,使训练能够在互联网带宽上运行;Psyche 则将这一训练机制部署在链上网络,使节点可以在本地完成推理、验证、奖励评估与权重更新,形成完整的 RL 闭环。
在 Nous 的体系中, Atropos 验证思维链;DisTrO 压缩训练通信;Psyche 运行 RL 循环;World Sim 提供复杂环境;Forge 采集真实推理;Hermes 将所有学习写入权重。强化学习不仅是一个训练阶段,而是 Nous 架构中 连接数据、环境、模型与基础设施的核心协议,让 Hermes成为一个 能在开源算力网络上持续自我改进的活体系统。
Gradient Network:强化学习架构Echo
Gradient Network 核心愿景是通过“开放智能协议栈”(Open Intelligence Stack)重构 AI 的计算范式。Gradient 的技术栈由一组可独立演化、又异构协同的核心协议组成。其体系从底层通信到上层智能协作依次包括:Parallax(分布式推理)、Echo(去中心化 RL 训练)、Lattica(P2P 网络)、SEDM / Massgen / Symphony / CUAHarm(记忆、协作、安全)、VeriLLM(可信验证)、Mirage(高保真仿真),共同构成持续演化的去中心化智能基础设施。

Echo — 强化学习训练架构
Echo 是 Gradient 的强化学习框架,其核心设计理念在于解耦强化学习中的训练、推理与数据(奖励)路径,使 Rollout 生成、策略优化与奖励评估能够在异构环境中独立扩展与调度。在由推理侧与训练侧节点组成的异构网络中协同运行,以轻量同步机制在广域异构环境中维持训练稳定性,有效缓解传统 DeepSpeed RLHF / VERL 中推理与训练混跑导致的 SPMD 失效与 GPU 利用率瓶颈。

Echo 采用“推理–训练双群架构”实现算力利用最大化,双群各自独立运行,互不阻塞:
最大化采样吞吐:推理群 Inference Swarm 由消费级 GPU 与边缘设备组成,通过 Parallax 以 pipeline‐parallel 构建高吞吐采样器,专注于轨迹生成;最大化梯度算力:训练群Training Swarm 由可运行于中心化集群或全球多地的消费级 GPU 网络,负责梯度更新、参数同步与 LoRA 微调,专注于学习过程。
为维持策略与数据的一致性,Echo 提供 顺序(Sequential) 与异步(Asynchronous) 两类轻量级同步协议,实现策略权重与轨迹的双向一致性管理:
顺序拉取(Pull)模式|精度优先 :训练侧在拉取新轨迹前强制推理节点刷新模型版本,从而确保轨迹新鲜度,适合对策略陈旧高度敏感的任务;异步推拉(Push–Pull)模式|效率优先:推理侧持续生成带版本标签的轨迹,训练侧依自身节奏消费,协调器监控版本偏差并触发权重刷新,最大化设备利用率。
在底层,Echo 构建于 Parallax(低带宽环境下的异构推理)与轻量化分布式训练组件(如 VERL)之上,依赖 LoRA 降低跨节点同步成本,使强化学习可在全球异构网络上稳定运行。
Grail:Bittensor 生态的强化学习
Bittensor 通过其独特的 Yuma 共识机制,构建了一个巨大的、稀疏的、非平稳的奖励函数网络。
Bittensor生态中的Covenant AI 则通过 SN3 Templar、SN39 Basilica 与 SN81 Grail 构建了从预训练到 RL 后训练的垂直一体化流水线。其中,SN3 Templar 负责基础模型的预训练,SN39 Basilica 提供分布式算力市场,SN81 Grail 则作为面向 RL 后训练的“可验证推理层”,承载 RLHF / RLAIF 的核心流程,完成从基础模型到对齐策略的闭环优化。

GRAIL目标是以密码学方式证明每条强化学习 rollout 的真实性与模型身份绑定,确保 RLHF 能够在无需信任的环境中被安全执行。协议通过三层机制建立可信链条:
确定性挑战生成:利用 drand 随机信标与区块哈希生成不可预测但可复现的挑战任务(如 SAT、GSM8K),杜绝预计算作弊;通过 PRF 索引采样与 sketch commitments,使验证者以极低成本抽检 token-level logprob 与推理链,确认 rollout 确由声明模型生成;模型身份绑定:将推理过程与模型权重指纹及 token 分布的结构性签名绑定,确保替换模型或结果重放都会被立即识别。由此,为 RL 中推理轨迹(rollout)提供了真实性根基。
在此机制上,Grail 子网实现了 GRPO 风格的可验证后训练流程:矿工为同一题目生成多条推理路径,验证者依据正确性、推理链质量与 SAT 满足度评分,并将归一化结果写入链上,作为 TAO 权重。公开实验显示,该框架已将 Qwen2.5-1.5B 的 MATH 准确率从 12.7% 提升至 47.6%,证明其既能防作弊,也能显著强化模型能力。在 Covenant AI 的训练栈中,Grail 是去中心化 RLVR/RLAIF 的信任与执行基石,目前尚未正式主网上线。
Fraction AI:基于竞争的强化学习RLFC
Fraction AI 的架构明确围绕 竞争强化学习(Reinforcement Learning from Competition, RLFC) 和游戏化数据标注构建 ,将传统 RLHF 的静态奖励与人工标注替换为开放、动态的竞争环境。代理在不同 Spaces 中对抗,其相对排名与 AI 法官评分共同构成实时奖励,使对齐过程演变为持续在线的多智能体博弈系统。
传统RLHF与Fraction AI的RLFC之间的核心差异:

RLFC 的核心价值在于奖励不再来自单一模型,而来自不断演化的对手与评估者,避免奖励模型被利用,并通过策略多样性防止生态陷入局部最优。Spaces 的结构决定博弈性质(零和或正和),在对抗与协作中推动复杂行为涌现。
在系统架构上,Fraction AI 将训练过程拆解为四个关键组件:
Agents:基于开源 LLM 的轻量策略单元,通过 QLoRA 以差分权重扩展,低成本更新;Spaces:隔离的任务域环境,代理付费进入并以胜负获得奖励;AI Judges:以 RLAIF 构建的即时奖励层,提供可扩展、去中心化的评估;Proof-of-Learning:将策略更新绑定到具体竞争结果,确保训练过程可验证、防作弊。
Fraction AI 的本质是构建了一个人机协同的进化引擎”。用户作为策略层的“元优化者” (Meta-optimizer),通过提示工程(Prompt Engineering)和超参配置引导探索方向;而代理在微观的竞争中自动生成海量的高质量偏好数据对 (Preference Pairs)。这种模式让数据标注通过 “去信任化微调” (Trustless Fine-tuning) 实现了商业闭环 。
强化学习 Web3项目 架构比较

五. 总结与展望:强化学习 × Web3 的路径与机会
基于对上述前沿项目的解构分析,我们观察到:尽管各团队的切入点(算法、工程或市场)各异,但当强化学习(RL)与 Web3 结合时,其底层架构逻辑皆收敛为一个高度一致的“解耦-验证-激励”范式。这不仅是技术上的巧合,更是去中心化网络适配强化学习独特属性的必然结果。
强化学习通用架构特征:解决核心的物理限制与信任问题

推训物理分离 (Decoupling of Rollouts & Learning) —— 默认计算拓扑
通信稀疏、可并行的 Rollout 外包给全球消费级 GPU,高带宽的参数更新集中于少量训练节点,从 Prime Intellect 的异步 Actor–Learner 到 Gradient Echo 的双群架构皆如此。
验证驱动的信任层 (Verification-Driven Trust) —— 基础设施化
在无需许可的网络中,计算真实性必须通过数学与机制设计强制保障,代表实现包括 Gensyn 的 PoL、Prime Intellect 的 TOPLOC 与 Grail 的密码学验证。
代币化的激励闭环 (Tokenized Incentive Loop) —— 市场自我调节 
算力供给、数据生成、验证排序与奖励分配形成闭环,通过奖励驱动参与、通过 Slash 抑制作弊,使网络在开放环境中依然保持稳定与持续演进。
差异化技术路径:一致架构下的不同“突破点”
尽管架构趋同,但各项目根据自身基因选择了不同的技术护城河:
算法突破派 (Nous Research):试图从数学底层解决分布式训练的根本矛盾(带宽瓶颈)。其 DisTrO 优化器旨在将梯度通信量压缩数千倍,目标是让家庭宽带也能跑得动大模型训练,这是对物理限制的“降维打击”。系统工程派 (Prime Intellect, Gensyn, Gradient):侧重于构建下一代的“AI 运行时系统”。Prime Intellect的 ShardCast 和 Gradient 的 Parallax 都是为了在现有的网络条件下,通过极致的工程手段压榨出最高的异构集群效率。市场博弈派 (Bittensor, Fraction AI):专注奖励函数(Reward Function)的设计。通过设计精妙的评分机制,引导矿工自发寻找最优策略,来加速智能涌现。
优势、挑战与终局展望
在强化学习与 Web3 结合的范式下,系统级优势首先体现在 成本结构与治理结构的重写。
成本重塑:RL 后训练(Post-training)对采样(Rollout)的需求是无限的,Web3 能以极低成本调动全球长尾算力,这是中心化云厂商难以比拟的成本优势。主权对齐 (Sovereign Alignment):打破大厂对 AI 价值观(Alignment)的垄断,社区可以通过 Token 投票决定模型“什么是好的回答”,实现 AI 治理的民主化。
与此同时,这一体系也面临两大结构性约束。
带宽墙 (Bandwidth Wall):尽管有 DisTrO 等创新,物理延迟仍限制了超大参数模型(70B+)的全量训练,目前 Web3 AI 更多局限于微调和推理。古德哈特定律 (Reward Hacking):在高度激励的网络中,矿工极易“过拟合”奖励规则(刷分)而非提升真实智能。设计防作弊的鲁棒奖励函数是永恒的博弈。恶意拜占庭式节点攻击(BYZANTINE worker):通过对训练信号的主动操纵与投毒破坏模型收敛。核心不在于持续设计防作弊的奖励函数,而在于构建具备对抗性鲁棒性的机制。
强化学习与 Web3 的结合,本质是在重写“智能是如何被生产、对齐并分配价值”的机制。其演进路径可概括为三条互补方向:
去中心化推训网络:从算力矿机到策略网络,将并行且可验证的 Rollout 外包给全球长尾 GPU,短期聚焦可验证推理市场,中期演化为按任务聚类的强化学习子网;偏好与奖励的资产化:从标注劳工到数据股权。 实现偏好与奖励的资产化,将高质量反馈与 Reward Model 变为可治理、可分配的数据资产,从“标注劳工”升级为“数据股权”垂直领域的“小而美”进化:在结果可验证、收益可量化的垂直场景中孕育小而强的专用 RL Agents,如 DeFi 策略执行、代码生成,使策略改进与价值捕获直接绑定并有望跑赢通用闭源模型。
总体来看,强化学习 × Web3 的真正机会不在于复制一个去中心化版 OpenAI,而在于重写“智能生产关系”:让训练执行成为开放算力市场,让奖励与偏好成为可治理的链上资产,让智能带来的价值不再集中于平台,而在训练者、对齐者与使用者之间重新分配。

免责声明:本文在创作过程中借助了 ChatGPT-5 与Gemini 3的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
查看原文
机器经济订单:通往代理商贸易的全栈途径作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 这份独立的研究报告得到IOSG Ventures的支持。研究和写作过程受到Raghav Agarwal(LongHash)和Jay Yu(Pantera)的相关工作的启发。感谢Lex Sokolin @ Generative Ventures、Jordan@AIsa、Ivy @PodOur2Cents对本文章提出的宝贵建议。在写作过程中,也征求了Nevermined、Skyfire、Virtuals Protocol、AIsa、Heurist、AEON等项目团队的反馈。本文力求客观和准确,但某些观点涉及主观判断,可能不可避免地包含偏差。感谢读者的理解。

机器经济订单:通往代理商贸易的全栈途径

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao

这份独立的研究报告得到IOSG Ventures的支持。研究和写作过程受到Raghav Agarwal(LongHash)和Jay Yu(Pantera)的相关工作的启发。感谢Lex Sokolin @ Generative Ventures、Jordan@AIsa、Ivy @PodOur2Cents对本文章提出的宝贵建议。在写作过程中,也征求了Nevermined、Skyfire、Virtuals Protocol、AIsa、Heurist、AEON等项目团队的反馈。本文力求客观和准确,但某些观点涉及主观判断,可能不可避免地包含偏差。感谢读者的理解。
机器的经济秩序:智能体商业的全栈路径作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 本独立研报由IOSG Ventures支持,研究写作过程受Raghav Agarwal@LongHash与Jay Yu@Pantera相关研报启发,感谢Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy@《支无不言》博客对本文提出的宝贵建议。撰写过程中亦征询了 Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON等项目团队的意见反馈。本文力求内容客观准确,部分观点涉及主观判断,难免存在偏差,敬请读者予以理解。 智能体商业(Agentic Commerce)指的是由AI智能体自主完成服务发现、可信度判断、订单生成、支付授权及最终结算的全流程商业体系。它不再依赖于人类逐步操作或信息输入,而是由智能体在跨平台、跨系统的环境中自动协作、下单、支付与履约,从而形成机器与机器之间自主执行的商业闭环(M2M Commerce)。 加密领域中,最具实际应用价值的场景目前主要集中在稳定币支付与DeFi。因此,在Crypto与AI融合的过程中,最具价值的两条路径分别为:短期内依托现有成熟DeFi协议的AgentFi,以及中长期围绕稳定币结算、依赖ACP/AP2/x402/ERC-8004等协议逐步完善的Agent Payment。 智能体商业(Agentic Commerce)短期受限于协议成熟度、监管差异、商户用户接受度等因素,难以快速规模化;但从长期看,支付是所有商业闭环的底层锚点,智能体商业最具有长期价值。 一、智能体商业支付体系与应用场景 在智能体商业(Agentic Commerce)体系中,真实世界的商户网络才是最大的价值场景。无论 AI Agent 如何演进,传统法币支付体系(Stripe、Visa、Mastercard、银行转账)与快速增长的稳定币体系(USDC、x402)都将长期并存,共同构成智能体商业的底座。 传统法币支付 vs 稳定币支付对比 真实世界商户——从电商、订阅、SaaS 到出行、内容付费与企业采购——承载万亿美元级需求,也是 AI Agent 自动比价、续费与采购的核心价值来源。短期内,主流消费与企业采购仍将由传统法币支付体系长期主导。 稳定币在现实商业无法规模化的核心障碍并非仅技术,而是监管(KYC/AML、税务、消费者保护)、商户会计(稳定币非法偿)以及不可逆支付带来的争议处理机制缺失。由于这些结构性限制,稳定币短期难以进入医疗、航空、电商、政府、公用事业等高监管行业,其落地将主要集中在数字内容、跨境支付、Web3 原生服务与机器经济(M2M/IoT/Agent)等监管压力较低或链上原生的场景——这也正是 Web3 原生的智能体商业最先实现规模突破的机会窗口。 不过,2025 年监管制度化正快速推进:美国稳定币法案取得两党共识,香港与新加坡落地稳定币牌照框架,欧盟 MiCA 正式生效,Stripe 支持 USDC、PayPal 推出 PYUSD。监管结构的清晰化意味着稳定币正被主流金融体系接纳,为未来跨境结算、B2B 采购与机器经济打开政策空间。 智能体商业最佳应用场景匹配 智能体商业(Agentic Commerce)的核心不是让一种支付轨道取代另一种,而是将“下单—授权—支付”的执行主体交给 AI Agent,使传统法币支付体系(AP2、授权凭证、身份合规)与稳定币体系(x402、CCTP、智能合约结算)各自发挥优势。它既不是法币 vs 稳定币的零和竞争,也不是单一轨道的替代叙事,而是一个同时扩张双方能力的结构性机会:法币支付继续支撑人类商业,稳定币支付加速机器原生与链上原生场景,两者互补共生,成为智能体经济的双引擎。 二、智能体商业底层协议标准全景 智能体商业(Agentic Commerce)的协议栈由六个层级构成,形成“能力发现”至“支付交付”完整的机器商业链路。A2A Catalog 与 MCP Registry 负责能力发现,ERC-8004 提供链上可验证身份与声誉;ACP 与 AP2 分别承担结构化下单与授权指令;支付层由传统法币轨道(AP2)与稳定币轨道(x402)并行组成;交付层则尚无统一标准。 发现层(Discovery Layer): 解决“Agent 如何发现并理解可调用服务”。AI 侧通过 A2A Catalog 与 MCP Registry 构建标准化能力目录;Web3 则依托 ERC-8004 提供可寻址的身份指引。该层是整个协议栈的入口。信任层(Trust Layer):回答“对方是否可信”。AI 侧尚无通用标准,Web3 通过 ERC-8004 构建可验证身份、声誉与执行记录的统一框架,是Web3 的关键优势。下单层(Ordering Layer):负责“订单如何表达与校验”。ACP(OpenAI × Stripe)提供对商品、价格与结算条款的结构化描述,确保商户可履约。由于链上难以表达现实世界商业契约,该层基本由 Web2 主导。授权层(Authorization Layer):处理“Agent 是否获得用户合法授权”。AP2 通过可验证凭证将意图、确认与支付授权绑定至真实身份体系。Web3 签名尚不具法律效力,因此无法承担该层的契约与合规责任。支付层(Payment Layer):决定“付款通过何种轨道完成”。AP2 覆盖卡与银行等传统支付网络;x402 则提供稳定币的原生 API 支付接口,使 USDC 等资产可嵌入自动化调用。两类轨道在此形成功能互补。交付层(Fulfillment Layer):回答“支付完成后如何安全交付内容”。目前无统一协议:现实世界依赖商户系统完成交付,Web3 的加密访问控制尚未形成跨生态标准。该层仍是协议栈的最大空白,也最有可能孕育下一代基础协议。 三、智能体商业关键核心协议详解 围绕智能体商业(Agentic Commerce)服务发现、信任判断、结构化下单、支付授权与最终结算这五个关键环节,Google、Anthropic、OpenAI、Stripe、Ethereum、Coinbase 等机构均在相应环节提出底层协议,从而共同构建出下一代 Agentic Commerce 核心协议栈。 Agent‑to‑Agent (A2A) – 智能体互操作协议(Google) A2A 是由 Google 发起并捐赠至 Linux Foundation 的开源协议,旨在为不同供应商、不同框架构建的 AI Agents 提供统一的通信与协作标准。A2A 基于 HTTP + JSON-RPC,实现安全、结构化的消息与任务交换,使 Agents 能以原生方式进行多轮对话、协作决策、任务分解与状态管理。它的核心目标是构建“智能体之间的互联网”,让任何 A2A 兼容的 Agent 都能被自动发现、调用与组合,从而形成跨平台、跨组织的分布式 Agent 网络。 Model Context Protocol (MCP) – 统一工具数据接入协议(Anthropic) MCP 由 Anthropic 推出,是连接 LLM / Agents 与外部系统的开放协议,侧重统一工具与数据访问接口。它将数据库、文件系统、远程 API 以及专有工具抽象为标准化资源,使 Agent 可以安全、可控、可审计地访问外部能力。MCP 的设计强调低集成成本与高可扩展性:开发者只需一次对接,即可让 Agent 使用整个工具生态。目前 MCP 已被多家头部 AI 厂商采用,成为 agent-tool 交互的事实标准。 MCP 关注的是 “Agent 如何使用工具”——为模型提供统一且安全的外部资源访问能力(如数据库、API、文件系统等),从而标准化 agent-tool / agent-data 的交互方式。 A2A 则解决 “Agent 如何与其他 Agent 协同工作”——为跨厂商、跨框架的智能体建立原生通信标准,支持多轮对话、任务分解、状态管理与长生命周期执行,是智能体之间的基础互操作层。 Agentic Commerce Protocol (ACP) – 下单结账协议(OpenAI × Stripe) ACP(Agentic Commerce Protocol)是 OpenAI 与 Stripe 提出的开放下单标准(Apache 2.0),为 买家—AI Agent—商户 建立可被机器直接理解的结构化下单流程。协议覆盖商品信息、价格与条款校验、结算逻辑及支付凭证传递,使 AI 能在不成为商户的前提下代表用户安全发起购买。 其核心设计是:AI 以标准化方式调用商户的结账接口,而商户保留全部商业与法律控制权。ACP 通过结构化订单(JSON Schema / OpenAPI)、安全支付令牌(Stripe Shared Payment Token)、兼容现有电商后台,并支持 REST 与 MCP 发布能力,使商户无需改造系统即可进入 AI 购物生态。目前 ACP 已用于 ChatGPT Instant Checkout,成为早期部署可用的支付基础设施。 Agent Payments Protocol (AP2) – 数字授权与支付指令协议(Google) AP2 是由 Google 联合多家支付网络与科技公司共同推出的开放标准,旨在为 AI Agent 主导的支付 建立统一、合规、可审计的流程。它通过加密签名的数字授权凭证将用户的支付意图、授权范围与合规身份绑定起来,为商户、支付机构与监管方提供可验证的“谁在为谁花钱”的证据。 AP2 以“Payment-Agnostic”为设计原则,同时支持信用卡、银行转账、实时支付以及通过 x402 等扩展接入稳定币等加密支付轨道。在整个 Agentic Commerce 协议栈中,AP2 不负责具体商品与下单细节,而是为各种支付渠道提供通用的Agent 支付授权框架。 ERC‑8004 – 链上 Agent 身份 / 声誉 / 验证标准(Ethereum) ERC-8004 是由 MetaMask、Ethereum基金会、Google、 Coinbase共同提出的以太坊标准,旨在为 AI Agents 构建 跨平台、可验证、无需预信任 的身份与信誉体系,协议由链上三部分组成: Identity Registry:为每个 Agent 铸造类似 NFT 的链上身份,可挂接 MCP / A2A 端点、ENS/DID、钱包等跨平台信息。Reputation Registry:标准化记录评分、反馈与行为信号,使 Agent 的历史表现可审计、可聚合、可组合。Validation Registry:支持 stake re-execution、zkML、TEE 等验证机制,为高价值任务提供可验证的执行记录。 通过 ERC-8004,Agent 的身份、信誉与行为被链上存证,形成跨平台可发现、不可篡改、可验证的信任底座,是 Web3 构建开放、可信 AI 经济的重要基础设施。ERC-8004 处于 Review 阶段,意味着标准已基本稳定、具备可实现性,但仍在广泛征求社区意见,尚未最终定稿。 x402 – 稳定币原生 API 支付轨道(Coinbase) x402 是 Coinbase 提出的开放支付标准(Apache-2.0),将长期闲置的 HTTP 402 Payment Required 变为可编程的链上支付握手机制,让 API 与 AI Agent 可以在 无需账号、无需信用卡、无需 API Key 的情况下实现去账户化、无摩擦、按需付费的链上结算。 图例:HTTP 402 支付工作流. 来源: Jay Yu@Pantera Capital 核心机制:x402 协议复活了互联网早期遗留的 HTTP 402 状态码。其工作流为: 请求与协商: 客户端(Agent)发起请求 -> 服务端返回 402 状态码及支付参数(如金额、接收地址) 。自主支付: Agent 本地签署交易并广播(通常使用 USDC 等稳定币),无需人工干预 。验证与交付: 服务端或第三方“Facilitator”验证链上交易后,即时释放资源。 x402 引入了 Facilitator(促进者) 角色,作为连接 Web2 API 与 Web3 结算层的中间件。Facilitator 负责处理复杂的链上验证与结算逻辑,使传统开发者仅需极少代码即可将 API 货币化,服务端无需运行节点、管理签名或广播交易,只需依赖 Facilitator 提供的接口即可完成链上支付处理。当前最成熟的 Facilitator 实现由 Coinbase Developer Platform 提供。 x402 的技术优势在于:支持低至 1 美分的链上微支付,突破传统支付网关在 AI 场景下无法处理高频小额调用的限制;完全移除账户、KYC 与 API Key,使 AI 能自主完成 M2M 支付闭环;并通过 EIP-3009 实现无 Gas 的 USDC 授权支付,原生兼容 Base 与 Solana,具备多链可扩展性。 基于对Agentic Commerce的核心协议栈的介绍,下表总结协议在各层级的定位、核心能力、主要限制与成熟度评估,为构建跨平台、可执行、可支付的智能体经济提供了清晰的结构化视角。 四、Web3智能体商业生态代表性项目 当下智能体商业(Agentic Commerce)的Web3生态可分为三层: 业务支付系统层(L3),包括 Skyfire、Payman、Catena Labs、Nevermined 等项目,提供支付封装、SDK 集成、额度与权限治理、人类审批与合规接入,并不同程度对接传统金融轨道(银行、卡组织、PSP、KYC/KYB),搭建支付业务与机器经济的桥梁。原生支付协议层(L2),由 x402、Virtual ACP 等协议及其生态项目构成,负责收费请求、支付验证与链上结算,是当前 Agent 经济中真正实现自动化、端到端清算的核心。x402 完全不依赖银行、卡组织与支付服务商,提供链上原生 M2M/A2A 支付能力。基础设施层(L1),包括 Ethereum、Base、Solana 以及 Kite AI 等,为支付与身份体系提供链上执行环境、密钥体系、MPC/AA 与权限 Runtime的技术栈可信底座。 L3业务支付系统层 - Skyfire:AI Agent 的身份与支付凭证 Skyfire 以 KYA + Pay为核心,将“身份验证 + 支付授权”抽象为 AI 可用的 JWT 凭证,为网站、API、MCP 服务提供可验证的自动化访问与扣费能力。系统自动为用户生成 Buyer/Seller Agent 与托管钱包,支持卡片、银行与 USDC 充值。 系统层面,Skyfire 为每个用户生成 Buyer/Seller Agent 与托管钱包,支持通过卡、银行和 USDC 充值余额。其最大优势是完全兼容 Web2(JWT/JWKS、WAF、API Gateway 可直接使用),可为内容网站、数据 API、工具类 SaaS 提供“带身份的自动付费访问”。 Skyfire 是现实可用的 Agent Payment 中间层,但身份与资产托管均为中心化方案。 L3业务支付系统层 -  Payman:AI 原生资金权限风控 Payman 提供 Wallet、Payee、Policy、Approval 四类能力,为 AI 构建可治理、可审计的“资金权限层”。AI 可以执行真实支付,但所有资金动作必须满足用户设置的额度、策略与审批规则。核心交互通过 payman.ask() 自然语言接口完成,系统负责解析意图、验证策略与执行支付。 Payman 的关键价值在于:“AI 可以动钱,但永远不越权。”将企业级资金治理迁移到 AI 环境:自动发薪、报销、供应商付款、批量转账等都可在明确定义的权限边界内完成。Payman 适合企业与团队内部的财务自动化(工资、报销、供应商付款等),定位是 受控资金治理层,并不尝试构建开放式 Agent-to-Agent 支付协议。 L3业务支付系统层 - Catena Labs:Agent 身份/支付标准 Catena 以 AI-Native 金融机构(托管、清算、风控、KYA)为商业层,以 ACK(Agent Commerce Kit)为标准层,构建 Agent 的统一身份协议(ACK-ID)与 Agent-native 支付协议(ACK-Pay)。目标是填补机器经济中缺失的可验证身份、授权链与自动化支付标准。 ACK-ID 基于 DID/VC 建立 Agent 的所有权链、授权链;ACK-Pay 定义与底层结算网络(USDC、银行、Arc)解耦的支付请求与可验证收据格式。Catena 强调长期的跨生态互操作性,其角色更接近“Agent 经济的 TLS/EMV 层”,标准化程度强、愿景清晰。 L3业务支付系统层 -  Nevermined:计量、计费与微支付结算 Nevermined 聚焦基于使用量的 AI 经济模型,提供 Access Control、Metering、Credits System 与 Usage Logs,用于自动化计量、按次计费、分账与审核。用户可通过 Stripe 或 USDC 充值 credits,系统在每次 API 调用时自动校验使用量、扣费并生成可审计日志。 其核心价值在于支持 sub-cent 的实时微支付与 Agent-to-Agent 自动化结算,使数据购买、API 调用、workflow 调度等都能以“按调用付费”的方式运行。Nevermined 不构建新的支付轨道,而是构建支付之上的计量/计费层:短期推动 AI SaaS 商业化,中期支撑 A2A marketplace,长期可能成为机器经济的微支付 fabric。 Skyfire、Payman、Catena Labs、Nevermined 属于业务支付层,都需要在不同程度上对接银行、卡组织、PSP 与 KYC/KYB,但它们的真正价值并不在“接入法币”,而在于解决传统金融无法覆盖的机器原生需求——身份映射、权限治理、程序化风控与按次计费。 Skyfire(支付网关):为网站/API 提供“身份 + 自动扣费”(链上身份映射Web2身份)Payman(财务治理):面向企业内部的策略、额度、权限与审批(AI 可花钱但不越权)Catena Labs(金融基建):银行体系结合,通过 KYA、托管与清算服务构建(AI合规银行)Nevermined (收银台):支付之上只做计量与计费;支付依赖 Stripe/USDC。 相比之下,x402 处于更底层,是唯一不依赖银行、卡组织与 PSP 的原生链上支付协议,可通过 402 工作流直接完成链上扣款与结算。当 Skyfire、Payman、Nevermined 等上层系统都可以调用 x402 作为结算轨道,从而为 Agent 提供真正意义上的 M2M / A2A 自动化原生支付闭环。 L2原生支付协议层 - x402 生态:从客户端到链上结算 x402 原生支付生态可分为四个层级:客户端(Client)、服务端(Server)、支付执行层(Facilitators)以及区块链结算层。客户端负责让 Agent 或应用发起支付请求;服务端按次向 Agent 提供数据、推理或存储等 API 服务;支付执行层完成链上扣款、验证与结算,是整个流程的核心执行引擎;区块链结算层则承担最终的代币扣款与链上确认,实现不可篡改的支付落地。 图例:X402支付流 来源:x402白皮书 客户端集成层(Client-Side Integrations / The Payers):让 Agent 或应用能够发起 x402 支付请求,是整个支付流程的“出发点”。代表项目: thirdweb Client SDK —— 生态最常用的 x402 客户端标准,维护活跃、支持多链,是开发者集成 x402 的默认工具。Nuwa AI —— 使 AI 可无需编码直接付费访问 x402 服务,“Agent 付费入口”的代表项目。官网中同时列出 Axios/Fetch、Mogami Java SDK、Tweazy 等尚属于早期客户端。 目前现有客户端仍停留在 “SDK 时代”,本质上是开发者工具。而类似浏览器/OS客户端、机器人/IoT客户端、企业系统或能管理多钱包 / 多 Facilitator 的更高级形态的客户端尚未出现。 服务端 / API 商品方(Services / Endpoints / The Sellers):向 Agent 按次出售数据、存储或推理服务,部分代表项目包括: AIsa  ——  为真实运行的 AI Agents 提供付费资源的 API 调用与结算基础设施,使其可按调用、按 token 或按量访问数据、内容、算力及第三方服务,目前x402调用量第一。Firecrawl —— AI Agent 最常消费的网页解析与结构化爬虫入口。Pinata —— 主流 Web3 存储基础设施,x402 已能覆盖真实的底层存储成本非轻量 API。Gloria AI —— 提供高频实时新闻与结构化市场信号,交易与分析型 Agent 的情报来源。AEON —— 将 x402 + USDC 扩展到东南亚 / 拉美 / 非洲线下线上商户收单,商户达50MNeynar —— Farcaster 社交图基础设施,将社交数据以 x402 的方式开放给 Agent。 当前服务端集中于爬虫/存储/新闻API,将金融交易执行API、广告投放 API、Web2 SaaS 网关甚至可以执行现实世界任务API的更高级的关键层几乎未开发,是未来最具潜力的增长曲线。 支付执行层(Facilitators / The Processors):完成链上扣款、验证与结算,是 x402 的核心执行引擎,代表项目: Coinbase Facilitator(CDP) —— 企业级可信执行器,Base 主网零费率 + 内置 OFAC/KYT,是生产环境的最强选择。PayAI Facilitator —— 多链覆盖最广、增长最快的执行层项目(Solana、Polygon、Base、Avalanche 等),是生态中使用量最高的多链 Facilitator。Daydreams —— 将支付执行与 LLM 推理路由结合的强场景项目,是当前增长最快的“AI 推理支付执行器”,正成为 x402 生态的第三极力量。根据 x402scan 近 30 日数据,还存在一批中长尾 Facilitator/Router,包括 Dexter、Virtuals Protocol、OpenX402、CodeNut、Heurist、Thirdweb、x402.rs、Mogami、Questflow 等,整体 交易量、卖家数量、买家数量均明显低于头部三家。 区块链结算层(Blockchain Settlement Layer): x402 支付工作流的最终落点,负责完成代币的实际扣款与链上确认。虽然 x402 协议本身是Chain-Agnostic的,但从当前生态数据来看,结算主要集中于两条网络: Base —— 由 CDP 官方 Facilitator 主推,USDC 原生、费用稳定,是目前交易量与卖家数量最大的结算网络。Solana —— 由 PayAI 等多链 Facilitator 重点支持,凭借高吞吐和低延迟,在高频推理和实时 API 场景中增长最快。 链本身不参与支付逻辑,随着更多 Facilitator的扩展 ,x402 的结算层将呈现更强的多链化趋势。 在 x402 支付体系中,Facilitator是唯一真正执行链上支付的角色,离“协议级收入”最近:负责验证支付授权、提交与追踪链上交易,并生成可审计结算证明,同时处理重放、超时、多链兼容与基础的合规检查。与只处理 HTTP 请求的 Client SDK(Payers)和 API 服务端(Sellers)不同,掌握流量入口与结算收费权,因此处于 Agent 经济的价值捕获核心,最受市场关注。 但现实情况是,大多数项目仍停留在测试网或小规模 Demo 阶段,本质只是轻量“支付执行器”,在身份、计费、风控、多链稳态处理等关键能力上缺乏护城河,呈现明显的低门槛、高同质化特征。随着生态逐步成熟,具备稳定性与合规优势由Coinbase背书的 Facilitator 确实拥有较为明显的先发优势,但随着 CDP Facilitator 开始收费,而其他 Facilitator 仍可能探索不同的变现模式,整体市场格局与份额分布仍存在较大的演变空间。从长期看,x402 仍属于接口层,无法承载核心价值,真正具备持续性竞争力的,是能在结算能力之上构建身份、计费、风控与合规体系的综合平台。 L2原生支付协议层 - Virtual Agent Commerce Protocol Virtual 的 Agent Commerce Protocol(ACP) 为自主 AI 提供了一套通用的商业交互标准,通过 Request → Negotiation → Transaction → Evaluation 四阶段流程,使独立智能体能够以安全、可验证的方式请求服务、协商条款、完成交易并接受质量评估。ACP 以区块链作为可信执行层,确保交互过程可审计、不可篡改,并通过引入 Evaluator Agents 建立激励驱动的信誉体系,使异构而独立的专业 Agent 能在无中心协调的条件下形成“自治商业体”,开展可持续的经济活动。目前,ACP 已超越早期实验阶段初具生态规模,不限于对“多智能体商业交互标准”的探索。 L1基础设施层 - 新兴/垂直Agent 原生支付链 Ethereum、Base(EVM)、Solana等主流通用公链为 Agent 提供了最核心的执行环境、账户体系、状态机、安全性与结算基础,拥有成熟的账户模型、稳定币生态和广泛的开发者基础。 Kite AI 是代表性的 “Agent 原生 L1” 基础设施,专为智能体设计支付、身份与权限的底层执行环境。其核心基于 SPACE 框架(稳定币原生、可编程约束、代理优先认证、合规审计、经济可行微支付),并通过 Root→Agent→Session 的三层密钥体系实现细粒度风险隔离;再结合优化状态通道构建“Agent 原生支付铁路”,将成本压至 $0.000001、延迟控制在百毫秒级,使 API 级高频微支付成为可行。作为通用执行层,Kite 向上兼容 x402、Google A2A、Anthropic MCP,向下兼容 OAuth 2.1,目标成为连接 Web2 与 Web3 的统一 Agent 支付与身份底座。 AIsaNet 集成x402与 L402(Lightning Labs 开发的基于闪电网络的 402 支付协议标准)协议,作为面向 AI Agents 的微支付与结算层,支持高频交易、跨协议调用协调、结算路径选择和交易路由,使 Agents 无需理解底层复杂性即可完成跨服务、跨链自动支付。 五、总结与展望:从支付协议到机器经济秩序重构 智能体商业(Agentic Commerce)是由机器主导的一套全新经济秩序的建立。它不是“AI 自动下单”这么简单,而是一整条跨主体链路的重构:服务如何被发现、可信度如何建立、订单如何表达、权限如何授权、价值如何清算、争议由谁承担。A2A、MCP、ACP、AP2、ERC-8004 与 x402 的出现,把“机器之间的商业闭环”标准化。 沿着这条演化路径,未来的支付基础设施将分化为两条平行轨道:一条是基于传统法币逻辑的业务治理轨道,另一条是基于 x402 协议的原生结算轨道。这两者之间的价值捕获逻辑并不同。 1. 业务治理轨道:Web3 业务支付系统层 适用场景: 低频、非微支付的真实世界交易(如采购、SaaS 订阅、实物电商)。核心逻辑: 传统法币将长期主导,Agent 只是更聪明的前端与流程协调器,而不替代 Stripe / 卡组织 / 银行转账。稳定币大规模进入真实商业世界的硬障碍在监管与税务。Skyfire、Payman、Catena Labs 等项目价值不在于底层的支付路由(通常由 Stripe/Circle 完成),而在于机器治理服务” (Governance-as-a-Service)。即解决传统金融无法覆盖的机器原生需求——身份映射、权限治理、程序化风控、责任归属及M2M / A2A micropayment(按 token / 秒结算)。关键是谁能成为企业信赖的“AI 财务管家”。 2. 原生结算轨道:x402 协议生态与 Facilitator 的终局  适用场景: 高频、微支付、M2M/A2A 的数字原生交易(API 计费、资源流支付)。核心逻辑: x402 作为开放标准,通过 HTTP 402 状态码实现了支付与资源的原子化绑定。在可编程微支付和 M2M / A2A 场景中,x402 目前是生态最完整、落地最靠前的协议(HTTP 原生 + 链上结算),在 Agent 经济中的地位有望类比 ‘Stripe for agents’。单纯在 Client 或 Service 端接入 x402 并不带来赛道溢价;真正具备增长潜力的是能沉淀长期复购与高频调用的上层资产,如 OS 级 Agent 客户端、机器人/IoT 钱包及高价值 API 服务(市场数据、GPU 推理、现实任务执行等)。Facilitator协助 Client 与 Server 完成支付握手、发票生成与资金清算的协议网关,既掌握流量也掌握结算费,是目前 x402 Stack 中离“收入”最近的一环。多数 Facilitator 本质上只是“支付执行器”,明显的低门槛、同质化特征。具备可用性与合规优势的巨头(如 Coinbase)形成主导格局。而避免被边缘化的核心价值将上移至 “Facilitator + X” 服务层:通过构建可验证服务目录与声誉体系,提供仲裁、风控、金库管理等高毛利能力。 我们相信未来将形成 “法币体系”与“稳定币体系”双轨并行”:前者支撑主流人类商业,后者承载机器原生与链上原生的高频、跨境、微支付场景。Web3 的角色不是取代传统支付,而是为 Agent 时代提供 可验证身份、可编程清算与全球稳定币 的底层能力。最终,智能体商业(Agentic Commerce)不仅限于支付优化,而是机器经济秩序的重构。当数十亿次微交易由 Agent 在后台自动完成时,那些率先提供信任、协调与优化能力的协议与公司,将成为下一代全球商业基础设施的核心力量。 免责声明:本文在创作过程中借助了 ChatGPT-5 与Gemini 3的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

机器的经济秩序:智能体商业的全栈路径

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao

本独立研报由IOSG Ventures支持,研究写作过程受Raghav Agarwal@LongHash与Jay Yu@Pantera相关研报启发,感谢Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy@《支无不言》博客对本文提出的宝贵建议。撰写过程中亦征询了 Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON等项目团队的意见反馈。本文力求内容客观准确,部分观点涉及主观判断,难免存在偏差,敬请读者予以理解。
智能体商业(Agentic Commerce)指的是由AI智能体自主完成服务发现、可信度判断、订单生成、支付授权及最终结算的全流程商业体系。它不再依赖于人类逐步操作或信息输入,而是由智能体在跨平台、跨系统的环境中自动协作、下单、支付与履约,从而形成机器与机器之间自主执行的商业闭环(M2M Commerce)。

加密领域中,最具实际应用价值的场景目前主要集中在稳定币支付与DeFi。因此,在Crypto与AI融合的过程中,最具价值的两条路径分别为:短期内依托现有成熟DeFi协议的AgentFi,以及中长期围绕稳定币结算、依赖ACP/AP2/x402/ERC-8004等协议逐步完善的Agent Payment。
智能体商业(Agentic Commerce)短期受限于协议成熟度、监管差异、商户用户接受度等因素,难以快速规模化;但从长期看,支付是所有商业闭环的底层锚点,智能体商业最具有长期价值。
一、智能体商业支付体系与应用场景

在智能体商业(Agentic Commerce)体系中,真实世界的商户网络才是最大的价值场景。无论 AI Agent 如何演进,传统法币支付体系(Stripe、Visa、Mastercard、银行转账)与快速增长的稳定币体系(USDC、x402)都将长期并存,共同构成智能体商业的底座。
传统法币支付 vs 稳定币支付对比

真实世界商户——从电商、订阅、SaaS 到出行、内容付费与企业采购——承载万亿美元级需求,也是 AI Agent 自动比价、续费与采购的核心价值来源。短期内,主流消费与企业采购仍将由传统法币支付体系长期主导。
稳定币在现实商业无法规模化的核心障碍并非仅技术,而是监管(KYC/AML、税务、消费者保护)、商户会计(稳定币非法偿)以及不可逆支付带来的争议处理机制缺失。由于这些结构性限制,稳定币短期难以进入医疗、航空、电商、政府、公用事业等高监管行业,其落地将主要集中在数字内容、跨境支付、Web3 原生服务与机器经济(M2M/IoT/Agent)等监管压力较低或链上原生的场景——这也正是 Web3 原生的智能体商业最先实现规模突破的机会窗口。
不过,2025 年监管制度化正快速推进:美国稳定币法案取得两党共识,香港与新加坡落地稳定币牌照框架,欧盟 MiCA 正式生效,Stripe 支持 USDC、PayPal 推出 PYUSD。监管结构的清晰化意味着稳定币正被主流金融体系接纳,为未来跨境结算、B2B 采购与机器经济打开政策空间。
智能体商业最佳应用场景匹配

智能体商业(Agentic Commerce)的核心不是让一种支付轨道取代另一种,而是将“下单—授权—支付”的执行主体交给 AI Agent,使传统法币支付体系(AP2、授权凭证、身份合规)与稳定币体系(x402、CCTP、智能合约结算)各自发挥优势。它既不是法币 vs 稳定币的零和竞争,也不是单一轨道的替代叙事,而是一个同时扩张双方能力的结构性机会:法币支付继续支撑人类商业,稳定币支付加速机器原生与链上原生场景,两者互补共生,成为智能体经济的双引擎。
二、智能体商业底层协议标准全景

智能体商业(Agentic Commerce)的协议栈由六个层级构成,形成“能力发现”至“支付交付”完整的机器商业链路。A2A Catalog 与 MCP Registry 负责能力发现,ERC-8004 提供链上可验证身份与声誉;ACP 与 AP2 分别承担结构化下单与授权指令;支付层由传统法币轨道(AP2)与稳定币轨道(x402)并行组成;交付层则尚无统一标准。

发现层(Discovery Layer): 解决“Agent 如何发现并理解可调用服务”。AI 侧通过 A2A Catalog 与 MCP Registry 构建标准化能力目录;Web3 则依托 ERC-8004 提供可寻址的身份指引。该层是整个协议栈的入口。信任层(Trust Layer):回答“对方是否可信”。AI 侧尚无通用标准,Web3 通过 ERC-8004 构建可验证身份、声誉与执行记录的统一框架,是Web3 的关键优势。下单层(Ordering Layer):负责“订单如何表达与校验”。ACP(OpenAI × Stripe)提供对商品、价格与结算条款的结构化描述,确保商户可履约。由于链上难以表达现实世界商业契约,该层基本由 Web2 主导。授权层(Authorization Layer):处理“Agent 是否获得用户合法授权”。AP2 通过可验证凭证将意图、确认与支付授权绑定至真实身份体系。Web3 签名尚不具法律效力,因此无法承担该层的契约与合规责任。支付层(Payment Layer):决定“付款通过何种轨道完成”。AP2 覆盖卡与银行等传统支付网络;x402 则提供稳定币的原生 API 支付接口,使 USDC 等资产可嵌入自动化调用。两类轨道在此形成功能互补。交付层(Fulfillment Layer):回答“支付完成后如何安全交付内容”。目前无统一协议:现实世界依赖商户系统完成交付,Web3 的加密访问控制尚未形成跨生态标准。该层仍是协议栈的最大空白,也最有可能孕育下一代基础协议。
三、智能体商业关键核心协议详解
围绕智能体商业(Agentic Commerce)服务发现、信任判断、结构化下单、支付授权与最终结算这五个关键环节,Google、Anthropic、OpenAI、Stripe、Ethereum、Coinbase 等机构均在相应环节提出底层协议,从而共同构建出下一代 Agentic Commerce 核心协议栈。
Agent‑to‑Agent (A2A) – 智能体互操作协议(Google)
A2A 是由 Google 发起并捐赠至 Linux Foundation 的开源协议,旨在为不同供应商、不同框架构建的 AI Agents 提供统一的通信与协作标准。A2A 基于 HTTP + JSON-RPC,实现安全、结构化的消息与任务交换,使 Agents 能以原生方式进行多轮对话、协作决策、任务分解与状态管理。它的核心目标是构建“智能体之间的互联网”,让任何 A2A 兼容的 Agent 都能被自动发现、调用与组合,从而形成跨平台、跨组织的分布式 Agent 网络。
Model Context Protocol (MCP) – 统一工具数据接入协议(Anthropic)
MCP 由 Anthropic 推出,是连接 LLM / Agents 与外部系统的开放协议,侧重统一工具与数据访问接口。它将数据库、文件系统、远程 API 以及专有工具抽象为标准化资源,使 Agent 可以安全、可控、可审计地访问外部能力。MCP 的设计强调低集成成本与高可扩展性:开发者只需一次对接,即可让 Agent 使用整个工具生态。目前 MCP 已被多家头部 AI 厂商采用,成为 agent-tool 交互的事实标准。

MCP 关注的是 “Agent 如何使用工具”——为模型提供统一且安全的外部资源访问能力(如数据库、API、文件系统等),从而标准化 agent-tool / agent-data 的交互方式。
A2A 则解决 “Agent 如何与其他 Agent 协同工作”——为跨厂商、跨框架的智能体建立原生通信标准,支持多轮对话、任务分解、状态管理与长生命周期执行,是智能体之间的基础互操作层。

Agentic Commerce Protocol (ACP) – 下单结账协议(OpenAI × Stripe)
ACP(Agentic Commerce Protocol)是 OpenAI 与 Stripe 提出的开放下单标准(Apache 2.0),为 买家—AI Agent—商户 建立可被机器直接理解的结构化下单流程。协议覆盖商品信息、价格与条款校验、结算逻辑及支付凭证传递,使 AI 能在不成为商户的前提下代表用户安全发起购买。
其核心设计是:AI 以标准化方式调用商户的结账接口,而商户保留全部商业与法律控制权。ACP 通过结构化订单(JSON Schema / OpenAPI)、安全支付令牌(Stripe Shared Payment Token)、兼容现有电商后台,并支持 REST 与 MCP 发布能力,使商户无需改造系统即可进入 AI 购物生态。目前 ACP 已用于 ChatGPT Instant Checkout,成为早期部署可用的支付基础设施。
Agent Payments Protocol (AP2) – 数字授权与支付指令协议(Google)
AP2 是由 Google 联合多家支付网络与科技公司共同推出的开放标准,旨在为 AI Agent 主导的支付 建立统一、合规、可审计的流程。它通过加密签名的数字授权凭证将用户的支付意图、授权范围与合规身份绑定起来,为商户、支付机构与监管方提供可验证的“谁在为谁花钱”的证据。

AP2 以“Payment-Agnostic”为设计原则,同时支持信用卡、银行转账、实时支付以及通过 x402 等扩展接入稳定币等加密支付轨道。在整个 Agentic Commerce 协议栈中,AP2 不负责具体商品与下单细节,而是为各种支付渠道提供通用的Agent 支付授权框架。

ERC‑8004 – 链上 Agent 身份 / 声誉 / 验证标准(Ethereum)

ERC-8004 是由 MetaMask、Ethereum基金会、Google、 Coinbase共同提出的以太坊标准,旨在为 AI Agents 构建 跨平台、可验证、无需预信任 的身份与信誉体系,协议由链上三部分组成:
Identity Registry:为每个 Agent 铸造类似 NFT 的链上身份,可挂接 MCP / A2A 端点、ENS/DID、钱包等跨平台信息。Reputation Registry:标准化记录评分、反馈与行为信号,使 Agent 的历史表现可审计、可聚合、可组合。Validation Registry:支持 stake re-execution、zkML、TEE 等验证机制,为高价值任务提供可验证的执行记录。
通过 ERC-8004,Agent 的身份、信誉与行为被链上存证,形成跨平台可发现、不可篡改、可验证的信任底座,是 Web3 构建开放、可信 AI 经济的重要基础设施。ERC-8004 处于 Review 阶段,意味着标准已基本稳定、具备可实现性,但仍在广泛征求社区意见,尚未最终定稿。
x402 – 稳定币原生 API 支付轨道(Coinbase)
x402 是 Coinbase 提出的开放支付标准(Apache-2.0),将长期闲置的 HTTP 402 Payment Required 变为可编程的链上支付握手机制,让 API 与 AI Agent 可以在 无需账号、无需信用卡、无需 API Key 的情况下实现去账户化、无摩擦、按需付费的链上结算。
图例:HTTP 402 支付工作流. 来源: Jay Yu@Pantera Capital
核心机制:x402 协议复活了互联网早期遗留的 HTTP 402 状态码。其工作流为:
请求与协商: 客户端(Agent)发起请求 -> 服务端返回 402 状态码及支付参数(如金额、接收地址) 。自主支付: Agent 本地签署交易并广播(通常使用 USDC 等稳定币),无需人工干预 。验证与交付: 服务端或第三方“Facilitator”验证链上交易后,即时释放资源。
x402 引入了 Facilitator(促进者) 角色,作为连接 Web2 API 与 Web3 结算层的中间件。Facilitator 负责处理复杂的链上验证与结算逻辑,使传统开发者仅需极少代码即可将 API 货币化,服务端无需运行节点、管理签名或广播交易,只需依赖 Facilitator 提供的接口即可完成链上支付处理。当前最成熟的 Facilitator 实现由 Coinbase Developer Platform 提供。

x402 的技术优势在于:支持低至 1 美分的链上微支付,突破传统支付网关在 AI 场景下无法处理高频小额调用的限制;完全移除账户、KYC 与 API Key,使 AI 能自主完成 M2M 支付闭环;并通过 EIP-3009 实现无 Gas 的 USDC 授权支付,原生兼容 Base 与 Solana,具备多链可扩展性。

基于对Agentic Commerce的核心协议栈的介绍,下表总结协议在各层级的定位、核心能力、主要限制与成熟度评估,为构建跨平台、可执行、可支付的智能体经济提供了清晰的结构化视角。

四、Web3智能体商业生态代表性项目
当下智能体商业(Agentic Commerce)的Web3生态可分为三层:
业务支付系统层(L3),包括 Skyfire、Payman、Catena Labs、Nevermined 等项目,提供支付封装、SDK 集成、额度与权限治理、人类审批与合规接入,并不同程度对接传统金融轨道(银行、卡组织、PSP、KYC/KYB),搭建支付业务与机器经济的桥梁。原生支付协议层(L2),由 x402、Virtual ACP 等协议及其生态项目构成,负责收费请求、支付验证与链上结算,是当前 Agent 经济中真正实现自动化、端到端清算的核心。x402 完全不依赖银行、卡组织与支付服务商,提供链上原生 M2M/A2A 支付能力。基础设施层(L1),包括 Ethereum、Base、Solana 以及 Kite AI 等,为支付与身份体系提供链上执行环境、密钥体系、MPC/AA 与权限 Runtime的技术栈可信底座。

L3业务支付系统层 - Skyfire:AI Agent 的身份与支付凭证
Skyfire 以 KYA + Pay为核心,将“身份验证 + 支付授权”抽象为 AI 可用的 JWT 凭证,为网站、API、MCP 服务提供可验证的自动化访问与扣费能力。系统自动为用户生成 Buyer/Seller Agent 与托管钱包,支持卡片、银行与 USDC 充值。
系统层面,Skyfire 为每个用户生成 Buyer/Seller Agent 与托管钱包,支持通过卡、银行和 USDC 充值余额。其最大优势是完全兼容 Web2(JWT/JWKS、WAF、API Gateway 可直接使用),可为内容网站、数据 API、工具类 SaaS 提供“带身份的自动付费访问”。
Skyfire 是现实可用的 Agent Payment 中间层,但身份与资产托管均为中心化方案。
L3业务支付系统层 -  Payman:AI 原生资金权限风控
Payman 提供 Wallet、Payee、Policy、Approval 四类能力,为 AI 构建可治理、可审计的“资金权限层”。AI 可以执行真实支付,但所有资金动作必须满足用户设置的额度、策略与审批规则。核心交互通过 payman.ask() 自然语言接口完成,系统负责解析意图、验证策略与执行支付。
Payman 的关键价值在于:“AI 可以动钱,但永远不越权。”将企业级资金治理迁移到 AI 环境:自动发薪、报销、供应商付款、批量转账等都可在明确定义的权限边界内完成。Payman 适合企业与团队内部的财务自动化(工资、报销、供应商付款等),定位是 受控资金治理层,并不尝试构建开放式 Agent-to-Agent 支付协议。
L3业务支付系统层 - Catena Labs:Agent 身份/支付标准
Catena 以 AI-Native 金融机构(托管、清算、风控、KYA)为商业层,以 ACK(Agent Commerce Kit)为标准层,构建 Agent 的统一身份协议(ACK-ID)与 Agent-native 支付协议(ACK-Pay)。目标是填补机器经济中缺失的可验证身份、授权链与自动化支付标准。
ACK-ID 基于 DID/VC 建立 Agent 的所有权链、授权链;ACK-Pay 定义与底层结算网络(USDC、银行、Arc)解耦的支付请求与可验证收据格式。Catena 强调长期的跨生态互操作性,其角色更接近“Agent 经济的 TLS/EMV 层”,标准化程度强、愿景清晰。
L3业务支付系统层 -  Nevermined:计量、计费与微支付结算
Nevermined 聚焦基于使用量的 AI 经济模型,提供 Access Control、Metering、Credits System 与 Usage Logs,用于自动化计量、按次计费、分账与审核。用户可通过 Stripe 或 USDC 充值 credits,系统在每次 API 调用时自动校验使用量、扣费并生成可审计日志。
其核心价值在于支持 sub-cent 的实时微支付与 Agent-to-Agent 自动化结算,使数据购买、API 调用、workflow 调度等都能以“按调用付费”的方式运行。Nevermined 不构建新的支付轨道,而是构建支付之上的计量/计费层:短期推动 AI SaaS 商业化,中期支撑 A2A marketplace,长期可能成为机器经济的微支付 fabric。

Skyfire、Payman、Catena Labs、Nevermined 属于业务支付层,都需要在不同程度上对接银行、卡组织、PSP 与 KYC/KYB,但它们的真正价值并不在“接入法币”,而在于解决传统金融无法覆盖的机器原生需求——身份映射、权限治理、程序化风控与按次计费。
Skyfire(支付网关):为网站/API 提供“身份 + 自动扣费”(链上身份映射Web2身份)Payman(财务治理):面向企业内部的策略、额度、权限与审批(AI 可花钱但不越权)Catena Labs(金融基建):银行体系结合,通过 KYA、托管与清算服务构建(AI合规银行)Nevermined (收银台):支付之上只做计量与计费;支付依赖 Stripe/USDC。
相比之下,x402 处于更底层,是唯一不依赖银行、卡组织与 PSP 的原生链上支付协议,可通过 402 工作流直接完成链上扣款与结算。当 Skyfire、Payman、Nevermined 等上层系统都可以调用 x402 作为结算轨道,从而为 Agent 提供真正意义上的 M2M / A2A 自动化原生支付闭环。
L2原生支付协议层 - x402 生态:从客户端到链上结算
x402 原生支付生态可分为四个层级:客户端(Client)、服务端(Server)、支付执行层(Facilitators)以及区块链结算层。客户端负责让 Agent 或应用发起支付请求;服务端按次向 Agent 提供数据、推理或存储等 API 服务;支付执行层完成链上扣款、验证与结算,是整个流程的核心执行引擎;区块链结算层则承担最终的代币扣款与链上确认,实现不可篡改的支付落地。

图例:X402支付流 来源:x402白皮书
客户端集成层(Client-Side Integrations / The Payers):让 Agent 或应用能够发起 x402 支付请求,是整个支付流程的“出发点”。代表项目:
thirdweb Client SDK —— 生态最常用的 x402 客户端标准,维护活跃、支持多链,是开发者集成 x402 的默认工具。Nuwa AI —— 使 AI 可无需编码直接付费访问 x402 服务,“Agent 付费入口”的代表项目。官网中同时列出 Axios/Fetch、Mogami Java SDK、Tweazy 等尚属于早期客户端。
目前现有客户端仍停留在 “SDK 时代”,本质上是开发者工具。而类似浏览器/OS客户端、机器人/IoT客户端、企业系统或能管理多钱包 / 多 Facilitator 的更高级形态的客户端尚未出现。
服务端 / API 商品方(Services / Endpoints / The Sellers):向 Agent 按次出售数据、存储或推理服务,部分代表项目包括:
AIsa  ——  为真实运行的 AI Agents 提供付费资源的 API 调用与结算基础设施,使其可按调用、按 token 或按量访问数据、内容、算力及第三方服务,目前x402调用量第一。Firecrawl —— AI Agent 最常消费的网页解析与结构化爬虫入口。Pinata —— 主流 Web3 存储基础设施,x402 已能覆盖真实的底层存储成本非轻量 API。Gloria AI —— 提供高频实时新闻与结构化市场信号,交易与分析型 Agent 的情报来源。AEON —— 将 x402 + USDC 扩展到东南亚 / 拉美 / 非洲线下线上商户收单,商户达50MNeynar —— Farcaster 社交图基础设施,将社交数据以 x402 的方式开放给 Agent。
当前服务端集中于爬虫/存储/新闻API,将金融交易执行API、广告投放 API、Web2 SaaS 网关甚至可以执行现实世界任务API的更高级的关键层几乎未开发,是未来最具潜力的增长曲线。
支付执行层(Facilitators / The Processors):完成链上扣款、验证与结算,是 x402 的核心执行引擎,代表项目:
Coinbase Facilitator(CDP) —— 企业级可信执行器,Base 主网零费率 + 内置 OFAC/KYT,是生产环境的最强选择。PayAI Facilitator —— 多链覆盖最广、增长最快的执行层项目(Solana、Polygon、Base、Avalanche 等),是生态中使用量最高的多链 Facilitator。Daydreams —— 将支付执行与 LLM 推理路由结合的强场景项目,是当前增长最快的“AI 推理支付执行器”,正成为 x402 生态的第三极力量。根据 x402scan 近 30 日数据,还存在一批中长尾 Facilitator/Router,包括 Dexter、Virtuals Protocol、OpenX402、CodeNut、Heurist、Thirdweb、x402.rs、Mogami、Questflow 等,整体 交易量、卖家数量、买家数量均明显低于头部三家。
区块链结算层(Blockchain Settlement Layer): x402 支付工作流的最终落点,负责完成代币的实际扣款与链上确认。虽然 x402 协议本身是Chain-Agnostic的,但从当前生态数据来看,结算主要集中于两条网络:
Base —— 由 CDP 官方 Facilitator 主推,USDC 原生、费用稳定,是目前交易量与卖家数量最大的结算网络。Solana —— 由 PayAI 等多链 Facilitator 重点支持,凭借高吞吐和低延迟,在高频推理和实时 API 场景中增长最快。
链本身不参与支付逻辑,随着更多 Facilitator的扩展 ,x402 的结算层将呈现更强的多链化趋势。

在 x402 支付体系中,Facilitator是唯一真正执行链上支付的角色,离“协议级收入”最近:负责验证支付授权、提交与追踪链上交易,并生成可审计结算证明,同时处理重放、超时、多链兼容与基础的合规检查。与只处理 HTTP 请求的 Client SDK(Payers)和 API 服务端(Sellers)不同,掌握流量入口与结算收费权,因此处于 Agent 经济的价值捕获核心,最受市场关注。
但现实情况是,大多数项目仍停留在测试网或小规模 Demo 阶段,本质只是轻量“支付执行器”,在身份、计费、风控、多链稳态处理等关键能力上缺乏护城河,呈现明显的低门槛、高同质化特征。随着生态逐步成熟,具备稳定性与合规优势由Coinbase背书的 Facilitator 确实拥有较为明显的先发优势,但随着 CDP Facilitator 开始收费,而其他 Facilitator 仍可能探索不同的变现模式,整体市场格局与份额分布仍存在较大的演变空间。从长期看,x402 仍属于接口层,无法承载核心价值,真正具备持续性竞争力的,是能在结算能力之上构建身份、计费、风控与合规体系的综合平台。
L2原生支付协议层 - Virtual Agent Commerce Protocol
Virtual 的 Agent Commerce Protocol(ACP) 为自主 AI 提供了一套通用的商业交互标准,通过 Request → Negotiation → Transaction → Evaluation 四阶段流程,使独立智能体能够以安全、可验证的方式请求服务、协商条款、完成交易并接受质量评估。ACP 以区块链作为可信执行层,确保交互过程可审计、不可篡改,并通过引入 Evaluator Agents 建立激励驱动的信誉体系,使异构而独立的专业 Agent 能在无中心协调的条件下形成“自治商业体”,开展可持续的经济活动。目前,ACP 已超越早期实验阶段初具生态规模,不限于对“多智能体商业交互标准”的探索。
L1基础设施层 - 新兴/垂直Agent 原生支付链
Ethereum、Base(EVM)、Solana等主流通用公链为 Agent 提供了最核心的执行环境、账户体系、状态机、安全性与结算基础,拥有成熟的账户模型、稳定币生态和广泛的开发者基础。
Kite AI 是代表性的 “Agent 原生 L1” 基础设施,专为智能体设计支付、身份与权限的底层执行环境。其核心基于 SPACE 框架(稳定币原生、可编程约束、代理优先认证、合规审计、经济可行微支付),并通过 Root→Agent→Session 的三层密钥体系实现细粒度风险隔离;再结合优化状态通道构建“Agent 原生支付铁路”,将成本压至 $0.000001、延迟控制在百毫秒级,使 API 级高频微支付成为可行。作为通用执行层,Kite 向上兼容 x402、Google A2A、Anthropic MCP,向下兼容 OAuth 2.1,目标成为连接 Web2 与 Web3 的统一 Agent 支付与身份底座。
AIsaNet 集成x402与 L402(Lightning Labs 开发的基于闪电网络的 402 支付协议标准)协议,作为面向 AI Agents 的微支付与结算层,支持高频交易、跨协议调用协调、结算路径选择和交易路由,使 Agents 无需理解底层复杂性即可完成跨服务、跨链自动支付。
五、总结与展望:从支付协议到机器经济秩序重构
智能体商业(Agentic Commerce)是由机器主导的一套全新经济秩序的建立。它不是“AI 自动下单”这么简单,而是一整条跨主体链路的重构:服务如何被发现、可信度如何建立、订单如何表达、权限如何授权、价值如何清算、争议由谁承担。A2A、MCP、ACP、AP2、ERC-8004 与 x402 的出现,把“机器之间的商业闭环”标准化。
沿着这条演化路径,未来的支付基础设施将分化为两条平行轨道:一条是基于传统法币逻辑的业务治理轨道,另一条是基于 x402 协议的原生结算轨道。这两者之间的价值捕获逻辑并不同。
1. 业务治理轨道:Web3 业务支付系统层
适用场景: 低频、非微支付的真实世界交易(如采购、SaaS 订阅、实物电商)。核心逻辑: 传统法币将长期主导,Agent 只是更聪明的前端与流程协调器,而不替代 Stripe / 卡组织 / 银行转账。稳定币大规模进入真实商业世界的硬障碍在监管与税务。Skyfire、Payman、Catena Labs 等项目价值不在于底层的支付路由(通常由 Stripe/Circle 完成),而在于机器治理服务” (Governance-as-a-Service)。即解决传统金融无法覆盖的机器原生需求——身份映射、权限治理、程序化风控、责任归属及M2M / A2A micropayment(按 token / 秒结算)。关键是谁能成为企业信赖的“AI 财务管家”。
2. 原生结算轨道:x402 协议生态与 Facilitator 的终局 
适用场景: 高频、微支付、M2M/A2A 的数字原生交易(API 计费、资源流支付)。核心逻辑: x402 作为开放标准,通过 HTTP 402 状态码实现了支付与资源的原子化绑定。在可编程微支付和 M2M / A2A 场景中,x402 目前是生态最完整、落地最靠前的协议(HTTP 原生 + 链上结算),在 Agent 经济中的地位有望类比 ‘Stripe for agents’。单纯在 Client 或 Service 端接入 x402 并不带来赛道溢价;真正具备增长潜力的是能沉淀长期复购与高频调用的上层资产,如 OS 级 Agent 客户端、机器人/IoT 钱包及高价值 API 服务(市场数据、GPU 推理、现实任务执行等)。Facilitator协助 Client 与 Server 完成支付握手、发票生成与资金清算的协议网关,既掌握流量也掌握结算费,是目前 x402 Stack 中离“收入”最近的一环。多数 Facilitator 本质上只是“支付执行器”,明显的低门槛、同质化特征。具备可用性与合规优势的巨头(如 Coinbase)形成主导格局。而避免被边缘化的核心价值将上移至 “Facilitator + X” 服务层:通过构建可验证服务目录与声誉体系,提供仲裁、风控、金库管理等高毛利能力。

我们相信未来将形成 “法币体系”与“稳定币体系”双轨并行”:前者支撑主流人类商业,后者承载机器原生与链上原生的高频、跨境、微支付场景。Web3 的角色不是取代传统支付,而是为 Agent 时代提供 可验证身份、可编程清算与全球稳定币 的底层能力。最终,智能体商业(Agentic Commerce)不仅限于支付优化,而是机器经济秩序的重构。当数十亿次微交易由 Agent 在后台自动完成时,那些率先提供信任、协调与优化能力的协议与公司,将成为下一代全球商业基础设施的核心力量。
免责声明:本文在创作过程中借助了 ChatGPT-5 与Gemini 3的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
查看原文
自动化、人工智能和Web3在机器人产业中的趋同演化作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 本独立研究报告得到了IOSG Ventures的支持。作者感谢Hans(RoboCup亚太)、Nichanan Kesonpat(1kx)、Robert Koschig(1kx)、Amanda Young(Collab+Currency)、Jonathan Victor(Ansa Research)、Lex Sokolin(Generative Ventures)、Jay Yu(Pantera Capital)、Jeffrey Hu(Hashkey Capital)对其宝贵意见的支持,以及来自OpenMind、BitRobot、peaq、Auki Labs、XMAQUINA、GAIB、Vader、Gradient、Tashi Network和CodecFlow的贡献者们的建设性反馈。尽管已尽一切努力确保客观性和准确性,但某些见解不可避免地反映了主观解释,鼓励读者批判性地参与内容。

自动化、人工智能和Web3在机器人产业中的趋同演化

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao
本独立研究报告得到了IOSG Ventures的支持。作者感谢Hans(RoboCup亚太)、Nichanan Kesonpat(1kx)、Robert Koschig(1kx)、Amanda Young(Collab+Currency)、Jonathan Victor(Ansa Research)、Lex Sokolin(Generative Ventures)、Jay Yu(Pantera Capital)、Jeffrey Hu(Hashkey Capital)对其宝贵意见的支持,以及来自OpenMind、BitRobot、peaq、Auki Labs、XMAQUINA、GAIB、Vader、Gradient、Tashi Network和CodecFlow的贡献者们的建设性反馈。尽管已尽一切努力确保客观性和准确性,但某些见解不可避免地反映了主观解释,鼓励读者批判性地参与内容。
机器人产业畅想:自动化、人工智能与 Web3 的融合进化作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 本独立研报由IOSG Ventures支持,感谢Hans (RoboCup Asia-Pacific) , Nichanan Kesonpat(1kx), Robert Koschig (1kx) , Amanda Young (Collab+Currency) , Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital) , Jeffrey Hu (Hashkey Capital) 对本文提出的宝贵建议。撰写过程中亦征询了 OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient,Tashi Network 和CodecFlow等项目团队的意见反馈。本文力求内容客观准确,部分观点涉及主观判断,难免存在偏差,敬请读者予以理解。 一、机器人全景:从工业自动化到人形智能 传统机器人产业链已形成自下而上的完整分层体系,涵盖核心零部件—中间控制系统—整机制造—应用集成四大环节。核心零部件(控制器、伺服、减速器、传感器、电池等)技术壁垒最高,决定了整机性能与成本下限;控制系统是机器人的“大脑与小脑”,负责决策规划与运动控制;整机制造体现供应链整合能力。系统集成与应用决定商业化深度正成为新的价值核心。 按应用场景与形态,全球机器人正沿着“工业自动化 → 场景智能化 → 通用智能化”的路径演进,形成五大主要类型:工业机器人、移动机器人、服务机器人、特种机器人以及人形机器人 工业机器人(Industrial Robots):当前唯一全面成熟的赛道,广泛应用于焊接、装配、喷涂与搬运等制造环节。行业已形成标准化供应链体系,毛利率稳定,ROI 明确。其中的子类协作机器人(Cobots)强调人机共作、轻量易部署,成长最快。代表企业:ABB、发那科(Fanuc)、安川电机(Yaskawa)、库卡(KUKA)、Universal Robots、节卡、遨博。移动机器人(Mobile Robots):包括 AGV(自动导引车) 与 AMR(自主移动机器人),在物流仓储、电商配送与制造运输中大规模落地,已成为 B 端最成熟品类。代表企业:Amazon Robotics, 极智嘉(Geek+)、快仓(Quicktron)、Locus Robotics。服务机器人(Service Robots): 面向清洁、餐饮、酒店与教育等行业,是消费端增长最快的领域。清洁类产品已进入消费电子逻辑,医疗与商用配送加速商业化。此外一批更通用的操作型机器人正在兴起(如 Dyna 的双臂系统)——比 任务特定型产品更灵活,但又尚未达到人形机器人的通用性。代表企业:科沃斯、石头科技、普渡科技、擎朗智能、iRobot、 Dyna 等。特种机器人 主要服务于医疗、军工、建筑、海洋与航天等场景,市场规模有限但利润率高、壁垒强,多依赖政府与企业订单,处于垂直细分成长阶段,典型项目包括 直觉外科、Boston Dynamics、ANYbotics、NASA Valkyrie等。人形机器人(Humanoid Robots):被视为未来“通用劳动力平台”。代表企业包括 Tesla(Optimus)、Figure AI(Figure 01)、Sanctuary AI (Phoenix)、Agility Robotics(Digit)、Apptronik (Apollo)、1X Robotics、Neura Robotics、宇树科技(Unitree)、优必选(UBTECH)、智元机器人 等。 人形机器人是当下最受关注的前沿方向,其核心价值在于以人形结构适配现有社会空间,被视为通往“通用劳动力平台”的关键形态。与追求极致效率的工业机器人不同,人形机器人强调通用适应性与任务迁移能力,可在不改造环境的前提下进入工厂、家庭与公共空间。 目前,大多数人形机器人仍停留在技术演示阶段,主要验证动态平衡、行走与操作能力。虽然已有部分项目在高度受控的工厂场景中开始小规模部署(如 Figure × BMW、Agility Digit),并预计自 2026 年起会有更多厂商(如 1X)进入早期分发,但这些仍是“窄场景、单任务”的受限应用,而非真正意义上的通用劳动力落地。整体来看,距离规模化商业化仍需数年时间。核心瓶颈包括:多自由度协调与实时动态平衡等控制难题;受限于电池能量密度与驱动效率的能耗与续航问题;在开放环境中容易失稳、难以泛化的感知—决策链路;显著的数据缺口(难以支撑通用策略训练);跨形体迁移尚未攻克;以及硬件供应链与成本曲线(尤其在中国以外地区)仍构成现实门槛,使大规模、低成本部署的实现难度进一步提高。 未来商业化路径预计将经历三个阶段:短期以 Demo-as-a-Service 为主,依赖试点与补贴;中期演进为 Robotics-as-a-Service (RaaS),构建任务与技能生态;长期以劳动力云与智能订阅服务为核心,推动价值重心从硬件制造转向软件与服务网络。总体而言,人形机器人正处于从演示到自学习的关键过渡期,未来能否跨越控制、成本与算法三重门槛,将决定其能否真正实现具身智能。 二、AI × 机器人:具身智能时代的黎明 传统自动化主要依赖预编程与流水线式控制(如感知–规划–控制的 DSOP 架构),只能在结构化环境中可靠运行。而现实世界更为复杂多变,新一代具身智能(Embodied AI)走的是另一条范式:通过大模型与统一表示学习,使机器人具备跨场景的“理解—预测—行动”能力。具身智能强调 身体(硬件)+ 大脑(模型)+ 环境(交互) 的动态耦合,机器人是载体,智能才是核心。 生成式 AI(Generative AI) 属于语言世界的智能,擅长理解符号与语义;具身智能(Embodied AI) 属于现实世界的智能,掌握感知与行动。二者分别对应“大脑”与“身体”,代表 AI 演化的两条平行主线。从智能层级上看,具身智能比生成式 AI 更高阶,但其成熟度仍明显落后。LLM 依赖互联网的海量语料,形成清晰的“数据 → 算力 → 部署”闭环;而机器人智能需要 第一视角、多模态、与动作强绑定的数据——包括远程操控轨迹、第一视角视频、空间地图、操作序列等,这些数据 天然不存在,必须通过真实交互或高保真仿真生成,因此更加稀缺且昂贵。虽然模拟与合成数据有所帮助,但仍无法替代真实的传感器—运动经验,这也是 Tesla、Figure 等必须自建遥操作数据工厂的原因,也是东南亚出现第三方数据标注工厂的原因。简而言之:LLM 从现成数据中学习,而机器人必须通过与物理世界互动来“创造”数据。未来 5–10 年,二者将在 Vision–Language–Action 模型与 Embodied Agent 架构上深度融合——LLM 负责高层认知与规划,机器人负责真实世界执行,形成数据与行动的双向闭环,共同推动 AI 从“语言智能”迈向真正的通用智能(AGI)。 具身智能的核心技术体系可视为一个自下而上的智能栈:VLA(感知融合)、RL/IL/SSL(智能学习)、Sim2Real(现实迁移)、World Model(认知建模)、以及多智能体协作与记忆推理(Swarm & Reasoning)。其中,VLA 与 RL/IL/SSL 是具身智能的“发动机”,决定其落地与商业化;Sim2Real 与 World Model 是连接虚拟训练与现实执行的关键技术;多智能体协作与记忆推理则代表更高层次的群体与元认知演化。 感知理解:视觉–语言–动作模型(Vision–Language–Action) VLA 模型通过整合 视觉(Vision)—语言(Language)—动作(Action) 三个通道,使机器人能够从人类语言中理解意图并转化为具体操作行为。其执行流程包括语义解析、目标识别(从视觉输入中定位目标物体)以及路径规划与动作执行,从而实现“理解语义—感知世界—完成任务”的闭环,是具身智能的关键突破之一。当前代表项目有 Google RT-X、Meta Ego-Exo 与 Figure Helix,分别展示了跨模态理解、沉浸式感知与语言驱动控制等前沿方向。 Vision-Language-Action模型通用架构 目前,VLA 仍处于早期阶段,面临四类核心瓶颈: 1)语义歧义与任务泛化弱:模型难以理解模糊、开放式指令; 2)视觉与动作对齐不稳:感知误差在路径规划与执行中被放大; 3)多模态数据稀缺且标准不统一:采集与标注成本高,难以形成规模化数据飞轮; 4)长时任务的时间轴与空间轴挑战:任务跨度过长导致规划与记忆能力不足,而空间范围过大则要求模型推理“视野之外”的事物,当前 VLA 缺乏稳定世界模型与跨空间推理能力。 这些问题共同限制了 VLA 的跨场景泛化能力与规模化落地进程。 智能学习:自监督学习(SSL)、模仿学习 (IL)与强化学习 (RL)  自监督学习(Self-Supervised Learning):从感知数据中自动提取语义特征,让机器人“理解世界”。 相当于让机器学会观察与表征。模仿学习(Imitation Learning):通过模仿人类演示或专家示例,快速掌握基础技能。相当于让机器学会像人一样做事。强化学习(Reinforcement Learning):通过“奖励-惩罚”机制,机器人在不断试错中优化动作策略。相当于让机器学会在试错中成长。 在 具身智能(Embodied AI) 中,自监督学习(SSL) 旨在让机器人通过感知数据预测状态变化与物理规律,从而理解世界的因果结构;强化学习(RL) 是智能形成的核心引擎,通过与环境交互和基于奖励信号的试错优化,驱动机器人掌握行走、抓取、避障等复杂行为;模仿学习(IL) 则通过人类示范加速这一过程,使机器人快速获得行动先验。当前主流方向是将三者结合,构建层次化学习框架:SSL 提供表征基础,IL 赋予人类先验,RL 驱动策略优化,以平衡效率与稳定性,共同构成具身智能从理解到行动的核心机制。 现实迁移:Sim2Real —— 从仿真到现实的跨越 Sim2Real(Simulation to Reality) 是让机器人在虚拟环境中完成训练、再迁移至真实世界。它通过高保真仿真环境(如 NVIDIA Isaac Sim & Omniverse、DeepMind MuJoCo)生成大规模交互数据,显著降低训练成本与硬件磨损。 其核心在于缩小“仿真现实鸿沟”,主要方法包括: 域随机化(Domain Randomization):在仿真中随机调整光照、摩擦、噪声等参数,提高模型泛化能力;物理一致性校准:利用真实传感器数据校正仿真引擎,增强物理逼真度;自适应微调(Adaptive Fine-tuning):在真实环境中进行快速再训练,实现稳定迁移。 Sim2Real 是具身智能落地的中枢环节,使 AI 模型能在安全、低成本的虚拟世界中学习“感知—决策—控制”的闭环。Sim2Real 在仿真训练上已成熟(如 NVIDIA Isaac Sim、MuJoCo),但现实迁移仍受限于 Reality Gap、高算力与标注成本,以及开放环境下泛化与安全性不足。尽管如此,Simulation-as-a-Service(SimaaS) 正成具身智能时代最轻、却最具战略价值的基础设施,其商业模式包括 平台订阅(PaaS)、数据生成(DaaS) 与 安全验证(VaaS)。 认知建模:World Model —— 机器人的“内在世界” 世界模型(World Model) 是具身智能的“内脑”,让机器人能在内部模拟环境与行动后果,实现预测与推理。它通过学习环境动态规律,构建可预测的内部表示,使智能体在执行前即可“预演”结果,从被动执行者进化为主动推理者,代表项目包括 DeepMind Dreamer、Google Gemini + RT-2、Tesla FSD V12、NVIDIA WorldSim 等。 典型技术路径包括: 潜变量建模(Latent Dynamics Modeling):压缩高维感知至潜在状态空间;时序预测想象训练(Imagination-based Planning):在模型中虚拟试错与路径预测;模型驱动强化学习(Model-based RL):用世界模型取代真实环境,降低训练成本。 World Model 处于具身智能的理论前沿性,是让机器人从“反应式”迈向“预测式”智能的核心路径,但仍受限于建模复杂、长时预测不稳与缺乏统一标准等挑战。 群体智能与记忆推理:从个体行动到协同认知 多智能体协作(Multi-Agent Systems)与记忆推理(Memory & Reasoning)代表了具身智能从“个体智能”向“群体智能”和“认知智能”演进的两个重要方向。二者共同支撑智能系统的协作学习与长期适应能力。 多智能体协作(Swarm / Cooperative RL): 指多个智能体在共享环境中通过分布式或协作式强化学习实现协同决策与任务分配。该方向已有扎实研究基础,例如 OpenAI Hide-and-Seek 实验 展示了多智能体自发合作与策略涌现, DeepMind QMIX 和 MADDPG 算法 提供了集中训练、分散执行的协作框架。这类方法已在仓储机器人调度、巡检和集群控制等场景中得到应用验证。 记忆与推理(Memory & Reasoning): 聚焦让智能体具备长期记忆、情境理解与因果推理能力,是实现跨任务迁移和自我规划的关键方向。典型研究包括 DeepMind Gato (统一感知-语言-控制的多任务智能体)和 DeepMind Dreamer 系列 (基于世界模型的想象式规划),以及 Voyager 等开放式具身智能体,通过外部记忆与自我演化实现持续学习。这些系统为机器人具备“记得过去、推演未来”的能力奠定了基础。 全球具身智能产业格局:合作竞争并存 全球机器人产业正处于“合作主导、竞争深化”的时期。中国的供应链效率、美国的 AI 能力、日本的零部件精度、欧洲的工业标准共同塑造全球机器人产业的长期格局。 美国 在前沿 AI 模型与软件领域(DeepMind、OpenAI、NVIDIA)保持领先,但这一优势并未延伸至机器人硬件。中国厂商在迭代速度和真实场景表现上更具优势。美国通过《芯片法案》(CHIPS Act)和《通胀削减法案》(IRA)推动产业回流。中国 凭借规模化制造、垂直整合与政策驱动,在零部件、自动化工厂与人形机器人领域形成领先优势,硬件与供应链能力突出,宇树与优必选等已实现量产,正向智能决策层延伸。但在 算法与仿真训练层与美国仍存较大差距。日本 长期垄断高精度零部件与运动控制技术,工业体系稳健,但 AI 模型融合仍处早期阶段,创新节奏偏稳。韩国在消费级机器人普及方面突出——由 LG、NAVER Labs 等企业引领,并拥有成熟强劲的服务机器人生态体系。欧洲 工程体系与安全标准完善,1X Robotics 等在研发层保持活跃,但部分制造环节外迁,创新重心偏向协作与标准化方向。 三、机器人 × AI × Web3:叙事愿景与现实路径 2025 年,Web3 行业出现与机器人和 AI 融合的新叙事。尽管 Web3 被视为去中心化机器经济的底层协议,但其在不同层面的结合价值与可行性仍存在明显分化: 硬件制造与服务层资本密集、数据闭环弱,Web3 目前仅能在供应链金融或设备租赁等边缘环节发挥辅助作用;仿真与软件生态层的契合度较高,仿真数据与训练任务可上链确权,智能体与技能模块也可通过NFT 或 Agent Token 实现资产化;平台层,去中心化的劳动力与协作网络正展现出最大潜力——Web3 可通过身份、激励与治理一体化机制,逐步构建可信的“机器劳动力市场”,为未来机器经济奠定制度雏形。 从长期愿景来看,协作与平台层是 Web3 与机器人及 AI 融合中最具价值的方向。随着机器人逐步具备感知、语言与学习能力,它们正演化为能自主决策、协作与创造经济价值的智能个体。这些“智能劳动者”真正参与经济体系,仍需跨越四个身份、信任、激励与治理核心门槛。 在身份层,机器需具备可确权、可追溯的数字身份。通过Machine DID,每个机器人、传感器或无人机都能在链上生成唯一可验证的“身份证”,绑定其所有权、行为记录与权限范围,实现安全交互与责任界定。在信任层,关键在于让“机器劳动”可验证、可计量、可定价。借助 智能合约、预言机与审计机制,结合 物理工作证明(PoPW)、可信执行环境(TEE) 与 零知识证明(ZKP),可确保任务执行过程的真实性与可追溯性,使机器行为具备经济核算价值。在激励层,Web3 通过 Token 激励体系、账户抽象与状态通道 实现机器间的自动结算与价值流转。机器人可通过微支付完成算力租赁、数据共享,并以质押与惩罚机制保障任务履约;借助智能合约与预言机,还可形成无需人工调度的去中心化“机器协作市场”。在治理层,当机器具备长期自治能力后,Web3 提供透明、可编程的治理框架:以 DAO 治理 共同决策系统参数,以 多签与信誉机制 维护安全与秩序。长期来看,这将推动机器社会迈向 “算法治理” 阶段——人类设定目标与边界,机器间以合约维系激励与平衡。 Web3 与机器人融合终极愿景:真实环境评测网络——由分布式机器人组成的“现实世界推理引擎”,在多样、复杂的物理场景中持续测试与基准模型能力;以及机器人劳动力市场——机器人在全球执行可验证的现实任务,通过链上结算获取收益,并将价值再投入算力或硬件升级。 从现实路径来看,具身智能与Web3的结合仍处于早期探索期, 去中心化机器智能经济体更多停留在叙事与社区驱动层面。现实中具备可行潜力的结合方向,主要体现在以下三方面: (1)数据众包与确权——Web3 通过链上激励与追溯机制,鼓励贡献者上传真实世界数据; (2)全球长尾参与——跨境小额支付与微激励机制有效降低数据采集与分发成本; (3)金融化与协作创新——DAO 模式可推动机器人资产化、收益凭证化及机器间结算机制。 总体来看,短期主要集中在数据采集与激励层;中期有望在“稳定币支付 + 长尾数据聚合”及 RaaS 资产化与结算层 实现突破;长期,若人形机器人规模化普及,Web3 或将成为机器所有权、收益分配与治理的制度底层,推动真正的去中心化机器经济形成。 四、Web3机器人生态图谱与精选案例 基于“可验证进展、技术公开度、产业相关度”三项标准,梳理当前 Web3 × Robotics 代表性项目,并按五层架构归类:模型智能层、机器经济层、数据采集层、感知与仿真基础层、机器人资产收益层。为保持客观,我们已剔除明显“蹭热点”或资料不足项目;如有疏漏,欢迎指正。 模型智能层(Model & Intelligence) Openmind - Building Android for Robots  (https://openmind.org/) OpenMind 是一个面向具身智能(Embodied AI)与机器人控制的开源操作系统(Robot OS),目标是构建全球首个去中心化机器人运行环境与开发平台。 项目核心包括两大组件: OM1:构建在 ROS2之上的模块化开源 AI 智能体运行时(AI Runtime Layer),用于编排感知、规划与动作管线,服务于数字与实体机器人;FABRIC:分布式协调层(Fabric Coordination Layer),连接云端算力、模型与现实机器人,使开发者可在统一环境中控制和训练机器人。 OpenMind 的核心在于充当 LLM(大语言模型)与机器人世界之间的智能中间层,让语言智能真正转化为具身智能(Embodied Intelligence),构建起从 理解(Language → Action) 到 对齐(Blockchain → Rules) 的智能骨架。OpenMind 多层系统实现了完整的协作闭环:人类通过 OpenMind App 提供反馈与标注(RLHF 数据),Fabric Network 负责身份验证、任务分配与结算协调,OM1 Robots 执行任务并遵循区块链上的“机器人宪法”完成行为审计与支付,从而实现 人类反馈 → 任务协作 → 链上结算 的去中心化机器协作网络。 项目进展与现实评估 OpenMind 处于“技术可运行、商业未落地”的早期阶段。核心系统 OM1 Runtime 已在 GitHub 开源,可在多平台运行并支持多模态输入,通过自然语言数据总线(NLDB)实现语言到行动的任务理解,具备较高原创性但仍偏实验,Fabric 网络 与链上结算仅完成接口层设计。 生态上,项目已与 Unitree、Ubtech、TurtleBot 等开放硬件及 Stanford、Oxford、Seoul Robotics 等高校合作,主要用于教育与研究验证,尚无产业化落地。App 已上线测试版,但激励与任务功能仍处早期。 商业模式方面,OpenMind 构建了 OM1(开源系统)+ Fabric(结算协议)+ Skill Marketplace(激励层) 的三层生态,目前尚无营收,依赖约 2000 万美元早期融资(Pantera、Coinbase Ventures、DCG)。总体来看,技术领先但商业化与生态仍处起步阶段,若 Fabric 成功落地,有望成为“具身智能时代的 Android”,但周期长、风险高、对硬件依赖强。 CodecFlow - The Execution Engine for Robotics  (https://codecflow.ai) CodecFlow 是一个基于 Solana 网络 的去中心化执行层协议(Fabric),旨在为 AI 智能体与机器人系统提供按需运行环境,让每一个智能体拥有“即时机器(Instant Machine)”。项目核心由三大模块构成: Fabric :跨云算力聚合层(Weaver + Shuttle + Gauge),可在数秒内为AI任务生成安全的虚拟机、GPU容器或机器人控制节点;optr SDK:智能体执行框架(Python接口),用于创建可操作桌面、仿真或真实机器人的“Operator”;Token 激励:链上激励与支付层,连接计算提供者、智能体开发者与自动化任务用户,形成去中心化算力与任务市场。 CodecFlow 的核心目标是打造“AI与机器人操作员的去中心化执行底座”,让任何智能体可在任意环境(Windows / Linux / ROS / MuJoCo / 机器人控制器)中安全运行,实现从 算力调度(Fabric) → 系统环境(System Layer) → 感知与行动(VLA Operator) 的通用执行架构。 项目进展与现实评估 已发布早期版本的 Fabric 框架(Go) 与 optr SDK(Python),可在网页或命令行环境中启动隔离算力实例。Operator 市场 预计于 2025 年底上线,定位为 AI 算力的去中心化执行层, 主要服务对象包括 AI 开发者、机器人研究团队与自动化运营公司。 机器经济层(Machine Economy Layer) BitRobot - The World’s Open Robotics Lab  (https://bitrobot.ai) BitRobot 是一个面向具身智能(Embodied AI)与机器人研发的去中心化科研与协作网络(Open Robotics Lab),由 FrodoBots Labs 与 Protocol Labs 联合发起。其核心愿景是:通过“子网(Subnets)+ 激励机制 + 可验证工作(VRW)”的开放架构, 核心作用包括: 通过 VRW (Verifiable Robotic Work) 标准定义并验证每一项机器人任务的真实贡献;通过 ENT (Embodied Node Token) 为机器人赋予链上身份与经济责任;通过 Subnets 组织科研、算力、设备与操作者的跨地域协作;通过 Senate + Gandalf AI 实现“人机共治”的激励决策与科研治理。 自 2025 年发布白皮书以来,BitRobot 已运行多个子网(如 SN/01 ET Fugi、SN/05 SeeSaw by Virtuals Protocol),实现去中心化远程操控与真实场景数据采集,并推出 $5M Grand Challenges 基金 推动全球模型开发的科研竞赛。 peaq – The Economy of Things  (https://www.peaq.network) peaq 是专为机器经济打造的 Layer-1 区块链,为数百万台机器人与设备提供机器身份、链上钱包、访问控制以及纳秒级时间同步(Universal Machine Time)等底层能力。其 Robotics SDK 使开发者能够以极少代码让机器人“机器经济就绪”,实现跨厂商、跨系统的互操作性与交互。 目前,peaq 已上线全球首个代币化机器人农场,并支持 60 余个真实世界的机器应用。其代币化框架帮助机器人公司为资本密集型硬件筹集资金,并将参与方式从传统 B2B/B2C 扩展至更广泛的社区层。凭借由网络费用注入的协议级激励池,peaq 可补贴新设备接入并支持开发者,从而形成推动机器人与物理 AI 项目加速扩张的经济飞轮。 数据采集层 (Data Layer) 旨在解决具身智能训练中稀缺且昂贵的高质量现实世界数据。通过多种路径采集和生成人机交互数据,包括远程操控(PrismaX, BitRobot Network)、第一视角与动作捕捉(Mecka、BitRobot Network、Sapien、Vader、NRN)以及仿真与合成数据(BitRobot Network),为机器人模型提供可扩展、可泛化的训练基础。 需要明确的是,Web3 并不擅长“生产数据”——在硬件、算法与采集效率上,Web2 巨头远超任何 DePIN 项目。其真正价值在于重塑数据的分配与激励机制。基于“稳定币支付网络 + 众包模型”,通过无许可的激励体系与链上确权机制,实现低成本的小额结算、贡献溯源与自动分润。但开放式众包仍面临质量与需求闭环难题——数据质量参差不齐,缺乏有效验证与稳定买方。 PrismaX  (https://gateway.prismax.ai) PrismaX 是一个面向具身智能(Embodied AI)的去中心化远程操控与数据经济网络,旨在构建“全球机器人劳动力市场”,让人类操作者、机器人设备与AI模型通过链上激励系统协同进化。项目核心包括两大组件: Teleoperation Stack —— 远程操控系统(浏览器/VR界面 + SDK),连接全球机械臂与服务机器人,实现人类实时操控与数据采集;Eval Engine —— 数据评估与验证引擎(CLIP + DINOv2 + 光流语义评分),为每条操作轨迹生成质量评分并上链结算。 PrismaX 通过去中心化激励机制,将人类操作行为转化为机器学习数据,构建从 远程操控 → 数据采集 → 模型训练 → 链上结算 的完整闭环,实现“人类劳动即数据资产”的循环经济。 项目进展与现实评估: PrismaX 已在 2025 年 8 月上线测试版(gateway.prismax.ai),用户可远程操控机械臂执行抓取实验并生成训练数据。Eval Engine 已在内部运行, 整体来看,PrismaX 技术实现度较高,定位清晰,是连接“人类操作 × AI模型 × 区块链结算”的关键中间层。其长期潜力有望成为“具身智能时代的去中心化劳动与数据协议”,但短期仍面临规模化挑战。 BitRobot Network(https://bitrobot.ai/) BitRobot Network 通过其子网实现视频、远程操控与仿真等多源数据采集。SN/01 ET Fugi 允许用户远程控制机器人完成任务,在“现实版 Pokémon Go 式”的交互中采集导航与感知数据。该玩法促成了 FrodoBots-2K 数据集的诞生,这是当前最大规模的人机导航开源数据集之一,被 UC Berkeley RAIL 和 Google DeepMind 等机构使用。SN/05 SeeSaw (Virtual Protocol)则通过 iPhone 在真实环境中大规模众包采集第一视角视频数据。其他已公布的子网,如 RoboCap 和 Rayvo,则专注于利用低成本实体设备采集第一视角视频数据。 Mecka  (https://www.mecka.ai) Mecka 是一家机器人数据公司,通过游戏化的手机采集和定制硬件设备,众包获取第一视角视频、人体运动数据以及任务演示,用于构建大规模多模态数据集,支持具身智能模型的训练。 Sapien (https://www.sapien.io/) Sapien 是一个以“人类运动数据驱动机器人智能”为核心的众包平台,通过可穿戴设备和移动端应用采集人体动作、姿态与交互数据,用于训练具身智能模型。项目致力于构建全球最大的人体运动数据网络,让人类的自然行为成为机器人学习与泛化的基础数据源。 Vader(https://www.vaderai.ai) Vader 通过其现实世界 MMO 应用 EgoPlay 众包收集第一视角视频与任务示范:用户以第一人称视角记录日常活动并获得 $VADER 奖励。其 ORN 数据流水线 能将原始 POV 画面转换为经过隐私处理的结构化数据集,包含动作标签与语义叙述,可直接用于人形机器人策略训练。 NRN Agents(https://www.nrnagents.ai/) 一个游戏化的具身 RL 数据平台,通过浏览器端机器人控制与模拟竞赛来众包人类示范数据。NRN 通过“竞技化”任务生成长尾行为轨迹,用于模仿学习与持续强化学习,并作为可扩展的数据原语支撑 sim-to-real 策略训练。 具身智能数据采集层项目对比 感知与仿真(Middleware & Simulation) 感知与仿真层为机器人提供连接物理世界与智能决策的核心基础设施,包括定位、通信、空间建模、仿真训练等能力,是构建大规模具身智能系统的“中间层骨架”。当前该领域仍处于早期探索阶段,各项目分别在高精度定位、共享空间计算、协议标准化与分布式仿真等方向形成差异化布局,尚未出现统一标准或互通生态。 中间件与空间基建(Middleware & Spatial Infra) 机器人核心能力——导航、定位、连接性与空间建模——构成了连接物理世界与智能决策的关键桥梁。尽管更广泛的 DePIN 项目(Silencio、WeatherXM、DIMO)开始提及“机器人,但下列项目与具身智能最直接相关。 RoboStack – Cloud-Native Robot Operating Stack  (https://robostack.io) RoboStack 是云原生机器人中间件,通过 RCP(Robot Context Protocol)实现机器人任务的实时调度、远程控制与跨平台互操作,并提供云端仿真、工作流编排与 Agent 接入能力。 GEODNET – Decentralized GNSS Network  (https://geodnet.com) GEODNET 是全球去中心化 GNSS 网络,提供厘米级 RTK 高精度定位。通过分布式基站和链上激励,为无人机、自动驾驶与机器人提供实时“地理基准层”。 Auki – Posemesh for Spatial Computing (https://www.auki.com) Auki 构建了去中心化的 Posemesh 空间计算网络,通过众包传感器与计算节点生成实时 3D 环境地图,为 AR、机器人导航和多设备协作提供共享空间基准。它是连接 虚拟空间与现实场景 的关键基础设施,推动 AR × Robotics 的融合。 Tashi Network — 机器人实时网格协作网络 (https://tashi.network) 去中心化实时网格网络,实现亚 30ms 共识、低延迟传感器交换与多机器人状态同步。其 MeshNet SDK 支持共享 SLAM、群体协作与鲁棒地图更新,为具身 AI 提供高性能实时协作层。 Staex — 去中心化连接与遥测网络 (https://www.staex.io) 源自德国电信研发部门的去中心化连接层,提供安全通信、可信遥测与设备到云的路由能力,使机器人车队能够可靠交换数据并跨不同运营方协作。 仿真与训练系统(Distributed Simulation & Learning) Gradient - Towards Open Intelligence(https://gradient.network/) Gradient 是建设“开放式智能(Open Intelligence)”的 AI 实验室,致力于基于去中心化基础设施实现分布式训练、推理、验证与仿真;其当前技术栈包括 Parallax(分布式推理)、Echo(分布式强化学习与多智能体训练) 以及 Gradient Cloud(面向企业的AI 解决方案)。在机器人方向,Mirage 平台面向具身智能训练提供 分布式仿真、动态交互环境与大规模并行学习 能力,用于加速世界模型与通用策略的训练落地。Mirage 正在与 NVIDIA 探讨与其 Newton 引擎的潜在协作方向。 机器人资产收益层(RobotFi / RWAiFi) 这一层聚焦于将机器人从“生产性工具”转化为“可金融化资产”的关键环节,通过 资产代币化、收益分配与去中心化治理,构建机器经济的金融基础设施。代表项目包括: XmaquinaDAO – Physical AI DAO (https://www.xmaquina.io) XMAQUINA 是一个去中心化生态系统,为全球用户提供对顶尖人形机器人与具身智能公司的高流动性参与渠道,将原本只属于风险投资机构的机会带上链。其代币 DEUS 既是流动化指数资产,也是治理载体,用于协调国库分配与生态发展。通过 DAO Portal 与 Machine Economy Launchpad,社区能够通过机器资产的代币化与结构化的链上参与,共同持有并支持新兴的 Physical AI 项目。 GAIB – The Economic Layer for AI Infrastructure  (https://gaib.ai/) GAIB 致力于为 GPU 与机器人等实体 AI 基础设施提供统一的 经济层,将去中心化资本与真实AI基建资产连接起来,构建可验证、可组合、可收益的智能经济体系。 在机器人方向上,GAIB 并非“销售机器人代币”,而是通过将机器人设备与运营合同(RaaS、数据采集、遥操作等)金融化上链,实现“真实现金流 → 链上可组合收益资产”的转化。这一体系涵盖硬件融资(融资租赁 / 质押)、运营现金流(RaaS / 数据服务)与数据流收益(许可 / 合约)等环节,使机器人资产及其现金流变得 可度量、可定价、可交易。 GAIB 以 AID / sAID 作为结算与收益载体,通过结构化风控机制(超额抵押、准备金与保险)保障稳健回报,并长期接入 DeFi 衍生品与流动性市场,形成从“机器人资产”到“可组合收益资产”的金融闭环。目标是成为 AI 时代的经济主干(Economic Backbone of Intelligence) Web3机器人生态图谱: https://fairy-build-97286531.figma.site/ 五、总结与展望:现实挑战与长期机会 从长期愿景看,机器人 × AI × Web3 的融合旨在构建去中心化机器经济体系(DeRobot Economy),推动具身智能从“单机自动化”迈向“可确权、可结算、可治理”的网络化协作。其核心逻辑是通过“Token → 部署 → 数据 → 价值再分配”形成自循环机制,使机器人、传感器与算力节点实现确权、交易与分润。 然而,从现实阶段来看,该模式仍处早期探索期,距离形成稳定现金流与规模化商业闭环尚远。多数项目停留在叙事层面,实际部署有限。机器人制造与运维属资本密集型产业,单靠代币激励难以支撑基础设施扩张;链上金融设计虽具可组合性,但尚未解决真实资产的风险定价与收益兑现问题。因此,所谓“机器网络自循环”仍偏理想化,其商业模式有待现实验证。 模型智能层(Model & Intelligence Layer)是当前最具长期价值的方向。以 OpenMind 为代表的开源机器人操作系统,尝试打破封闭生态、统一多机器人协作与语言到动作接口。其技术愿景清晰、系统完整,但工程量巨大、验证周期长,尚未形成产业级正反馈。机器经济层(Machine Economy Layer) 仍处于前置阶段,现实中机器人数量有限,DID 身份与激励网络尚难形成自洽循环。当前距离“机器劳动力经济”尚远。未来唯有具身智能实现规模化部署后,链上身份、结算与协作网络的经济效应才会真正显现。数据采集层(Data Layer) 数据采集层门槛相对最低,但是目前最接近商业可行的方向。具身智能数据采集对时空连续性与动作语义精度要求极高,决定其质量与复用性。如何在“众包规模”与“数据可靠性”之间平衡,是行业核心挑战。PrismaX 先锁定 B 端需求,再分发任务采集验证一定程度上提供可复制模板,但生态规模与数据交易仍需时间积累。感知与仿真层(Middleware & Simulation Layer) 仍在技术验证期,缺乏统一标准与接口尚未形成互通生态。仿真结果难以标准化迁移至真实环境,Sim2Real 效率受限。资产收益层(RobotFi / RWAiFi)Web3 主要在供应链金融、设备租赁与投资治理等环节发挥辅助作用,提升透明度与结算效率,而非重塑产业逻辑。 当然,我们认为,机器人 × AI × Web3 的交汇点依然代表着下一代智能经济体系的原点。它不仅是技术范式的融合,更是生产关系的重构契机:当机器具备身份、激励与治理机制,人机协作将从局部自动化迈向网络化自治。短期内,这一方向仍以叙事与实验为主,但它所奠定的制度与激励框架,正为未来机器社会的经济秩序铺设基础。从长期视角看,具身智能与 Web3 的结合将重塑价值创造的边界——让智能体成为真正可确权、可协作、可收益的经济主体。 免责声明:本文在创作过程中借助了 ChatGPT-5 与Deepseek的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

机器人产业畅想:自动化、人工智能与 Web3 的融合进化

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao

本独立研报由IOSG Ventures支持,感谢Hans (RoboCup Asia-Pacific) , Nichanan Kesonpat(1kx), Robert Koschig (1kx) , Amanda Young (Collab+Currency) , Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital) , Jeffrey Hu (Hashkey Capital) 对本文提出的宝贵建议。撰写过程中亦征询了 OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient,Tashi Network 和CodecFlow等项目团队的意见反馈。本文力求内容客观准确,部分观点涉及主观判断,难免存在偏差,敬请读者予以理解。
一、机器人全景:从工业自动化到人形智能
传统机器人产业链已形成自下而上的完整分层体系,涵盖核心零部件—中间控制系统—整机制造—应用集成四大环节。核心零部件(控制器、伺服、减速器、传感器、电池等)技术壁垒最高,决定了整机性能与成本下限;控制系统是机器人的“大脑与小脑”,负责决策规划与运动控制;整机制造体现供应链整合能力。系统集成与应用决定商业化深度正成为新的价值核心。
按应用场景与形态,全球机器人正沿着“工业自动化 → 场景智能化 → 通用智能化”的路径演进,形成五大主要类型:工业机器人、移动机器人、服务机器人、特种机器人以及人形机器人
工业机器人(Industrial Robots):当前唯一全面成熟的赛道,广泛应用于焊接、装配、喷涂与搬运等制造环节。行业已形成标准化供应链体系,毛利率稳定,ROI 明确。其中的子类协作机器人(Cobots)强调人机共作、轻量易部署,成长最快。代表企业:ABB、发那科(Fanuc)、安川电机(Yaskawa)、库卡(KUKA)、Universal Robots、节卡、遨博。移动机器人(Mobile Robots):包括 AGV(自动导引车) 与 AMR(自主移动机器人),在物流仓储、电商配送与制造运输中大规模落地,已成为 B 端最成熟品类。代表企业:Amazon Robotics, 极智嘉(Geek+)、快仓(Quicktron)、Locus Robotics。服务机器人(Service Robots): 面向清洁、餐饮、酒店与教育等行业,是消费端增长最快的领域。清洁类产品已进入消费电子逻辑,医疗与商用配送加速商业化。此外一批更通用的操作型机器人正在兴起(如 Dyna 的双臂系统)——比 任务特定型产品更灵活,但又尚未达到人形机器人的通用性。代表企业:科沃斯、石头科技、普渡科技、擎朗智能、iRobot、 Dyna 等。特种机器人 主要服务于医疗、军工、建筑、海洋与航天等场景,市场规模有限但利润率高、壁垒强,多依赖政府与企业订单,处于垂直细分成长阶段,典型项目包括 直觉外科、Boston Dynamics、ANYbotics、NASA Valkyrie等。人形机器人(Humanoid Robots):被视为未来“通用劳动力平台”。代表企业包括 Tesla(Optimus)、Figure AI(Figure 01)、Sanctuary AI (Phoenix)、Agility Robotics(Digit)、Apptronik (Apollo)、1X Robotics、Neura Robotics、宇树科技(Unitree)、优必选(UBTECH)、智元机器人 等。
人形机器人是当下最受关注的前沿方向,其核心价值在于以人形结构适配现有社会空间,被视为通往“通用劳动力平台”的关键形态。与追求极致效率的工业机器人不同,人形机器人强调通用适应性与任务迁移能力,可在不改造环境的前提下进入工厂、家庭与公共空间。
目前,大多数人形机器人仍停留在技术演示阶段,主要验证动态平衡、行走与操作能力。虽然已有部分项目在高度受控的工厂场景中开始小规模部署(如 Figure × BMW、Agility Digit),并预计自 2026 年起会有更多厂商(如 1X)进入早期分发,但这些仍是“窄场景、单任务”的受限应用,而非真正意义上的通用劳动力落地。整体来看,距离规模化商业化仍需数年时间。核心瓶颈包括:多自由度协调与实时动态平衡等控制难题;受限于电池能量密度与驱动效率的能耗与续航问题;在开放环境中容易失稳、难以泛化的感知—决策链路;显著的数据缺口(难以支撑通用策略训练);跨形体迁移尚未攻克;以及硬件供应链与成本曲线(尤其在中国以外地区)仍构成现实门槛,使大规模、低成本部署的实现难度进一步提高。

未来商业化路径预计将经历三个阶段:短期以 Demo-as-a-Service 为主,依赖试点与补贴;中期演进为 Robotics-as-a-Service (RaaS),构建任务与技能生态;长期以劳动力云与智能订阅服务为核心,推动价值重心从硬件制造转向软件与服务网络。总体而言,人形机器人正处于从演示到自学习的关键过渡期,未来能否跨越控制、成本与算法三重门槛,将决定其能否真正实现具身智能。
二、AI × 机器人:具身智能时代的黎明
传统自动化主要依赖预编程与流水线式控制(如感知–规划–控制的 DSOP 架构),只能在结构化环境中可靠运行。而现实世界更为复杂多变,新一代具身智能(Embodied AI)走的是另一条范式:通过大模型与统一表示学习,使机器人具备跨场景的“理解—预测—行动”能力。具身智能强调 身体(硬件)+ 大脑(模型)+ 环境(交互) 的动态耦合,机器人是载体,智能才是核心。
生成式 AI(Generative AI) 属于语言世界的智能,擅长理解符号与语义;具身智能(Embodied AI) 属于现实世界的智能,掌握感知与行动。二者分别对应“大脑”与“身体”,代表 AI 演化的两条平行主线。从智能层级上看,具身智能比生成式 AI 更高阶,但其成熟度仍明显落后。LLM 依赖互联网的海量语料,形成清晰的“数据 → 算力 → 部署”闭环;而机器人智能需要 第一视角、多模态、与动作强绑定的数据——包括远程操控轨迹、第一视角视频、空间地图、操作序列等,这些数据 天然不存在,必须通过真实交互或高保真仿真生成,因此更加稀缺且昂贵。虽然模拟与合成数据有所帮助,但仍无法替代真实的传感器—运动经验,这也是 Tesla、Figure 等必须自建遥操作数据工厂的原因,也是东南亚出现第三方数据标注工厂的原因。简而言之:LLM 从现成数据中学习,而机器人必须通过与物理世界互动来“创造”数据。未来 5–10 年,二者将在 Vision–Language–Action 模型与 Embodied Agent 架构上深度融合——LLM 负责高层认知与规划,机器人负责真实世界执行,形成数据与行动的双向闭环,共同推动 AI 从“语言智能”迈向真正的通用智能(AGI)。
具身智能的核心技术体系可视为一个自下而上的智能栈:VLA(感知融合)、RL/IL/SSL(智能学习)、Sim2Real(现实迁移)、World Model(认知建模)、以及多智能体协作与记忆推理(Swarm & Reasoning)。其中,VLA 与 RL/IL/SSL 是具身智能的“发动机”,决定其落地与商业化;Sim2Real 与 World Model 是连接虚拟训练与现实执行的关键技术;多智能体协作与记忆推理则代表更高层次的群体与元认知演化。


感知理解:视觉–语言–动作模型(Vision–Language–Action)
VLA 模型通过整合 视觉(Vision)—语言(Language)—动作(Action) 三个通道,使机器人能够从人类语言中理解意图并转化为具体操作行为。其执行流程包括语义解析、目标识别(从视觉输入中定位目标物体)以及路径规划与动作执行,从而实现“理解语义—感知世界—完成任务”的闭环,是具身智能的关键突破之一。当前代表项目有 Google RT-X、Meta Ego-Exo 与 Figure Helix,分别展示了跨模态理解、沉浸式感知与语言驱动控制等前沿方向。

Vision-Language-Action模型通用架构
目前,VLA 仍处于早期阶段,面临四类核心瓶颈:
1)语义歧义与任务泛化弱:模型难以理解模糊、开放式指令;
2)视觉与动作对齐不稳:感知误差在路径规划与执行中被放大;
3)多模态数据稀缺且标准不统一:采集与标注成本高,难以形成规模化数据飞轮;
4)长时任务的时间轴与空间轴挑战:任务跨度过长导致规划与记忆能力不足,而空间范围过大则要求模型推理“视野之外”的事物,当前 VLA 缺乏稳定世界模型与跨空间推理能力。
这些问题共同限制了 VLA 的跨场景泛化能力与规模化落地进程。
智能学习:自监督学习(SSL)、模仿学习 (IL)与强化学习 (RL) 
自监督学习(Self-Supervised Learning):从感知数据中自动提取语义特征,让机器人“理解世界”。 相当于让机器学会观察与表征。模仿学习(Imitation Learning):通过模仿人类演示或专家示例,快速掌握基础技能。相当于让机器学会像人一样做事。强化学习(Reinforcement Learning):通过“奖励-惩罚”机制,机器人在不断试错中优化动作策略。相当于让机器学会在试错中成长。
在 具身智能(Embodied AI) 中,自监督学习(SSL) 旨在让机器人通过感知数据预测状态变化与物理规律,从而理解世界的因果结构;强化学习(RL) 是智能形成的核心引擎,通过与环境交互和基于奖励信号的试错优化,驱动机器人掌握行走、抓取、避障等复杂行为;模仿学习(IL) 则通过人类示范加速这一过程,使机器人快速获得行动先验。当前主流方向是将三者结合,构建层次化学习框架:SSL 提供表征基础,IL 赋予人类先验,RL 驱动策略优化,以平衡效率与稳定性,共同构成具身智能从理解到行动的核心机制。


现实迁移:Sim2Real —— 从仿真到现实的跨越
Sim2Real(Simulation to Reality) 是让机器人在虚拟环境中完成训练、再迁移至真实世界。它通过高保真仿真环境(如 NVIDIA Isaac Sim & Omniverse、DeepMind MuJoCo)生成大规模交互数据,显著降低训练成本与硬件磨损。 其核心在于缩小“仿真现实鸿沟”,主要方法包括:
域随机化(Domain Randomization):在仿真中随机调整光照、摩擦、噪声等参数,提高模型泛化能力;物理一致性校准:利用真实传感器数据校正仿真引擎,增强物理逼真度;自适应微调(Adaptive Fine-tuning):在真实环境中进行快速再训练,实现稳定迁移。
Sim2Real 是具身智能落地的中枢环节,使 AI 模型能在安全、低成本的虚拟世界中学习“感知—决策—控制”的闭环。Sim2Real 在仿真训练上已成熟(如 NVIDIA Isaac Sim、MuJoCo),但现实迁移仍受限于 Reality Gap、高算力与标注成本,以及开放环境下泛化与安全性不足。尽管如此,Simulation-as-a-Service(SimaaS) 正成具身智能时代最轻、却最具战略价值的基础设施,其商业模式包括 平台订阅(PaaS)、数据生成(DaaS) 与 安全验证(VaaS)。
认知建模:World Model —— 机器人的“内在世界”
世界模型(World Model) 是具身智能的“内脑”,让机器人能在内部模拟环境与行动后果,实现预测与推理。它通过学习环境动态规律,构建可预测的内部表示,使智能体在执行前即可“预演”结果,从被动执行者进化为主动推理者,代表项目包括 DeepMind Dreamer、Google Gemini + RT-2、Tesla FSD V12、NVIDIA WorldSim 等。 典型技术路径包括:
潜变量建模(Latent Dynamics Modeling):压缩高维感知至潜在状态空间;时序预测想象训练(Imagination-based Planning):在模型中虚拟试错与路径预测;模型驱动强化学习(Model-based RL):用世界模型取代真实环境,降低训练成本。
World Model 处于具身智能的理论前沿性,是让机器人从“反应式”迈向“预测式”智能的核心路径,但仍受限于建模复杂、长时预测不稳与缺乏统一标准等挑战。
群体智能与记忆推理:从个体行动到协同认知
多智能体协作(Multi-Agent Systems)与记忆推理(Memory & Reasoning)代表了具身智能从“个体智能”向“群体智能”和“认知智能”演进的两个重要方向。二者共同支撑智能系统的协作学习与长期适应能力。
多智能体协作(Swarm / Cooperative RL):
指多个智能体在共享环境中通过分布式或协作式强化学习实现协同决策与任务分配。该方向已有扎实研究基础,例如 OpenAI Hide-and-Seek 实验 展示了多智能体自发合作与策略涌现, DeepMind QMIX 和 MADDPG 算法 提供了集中训练、分散执行的协作框架。这类方法已在仓储机器人调度、巡检和集群控制等场景中得到应用验证。
记忆与推理(Memory & Reasoning):
聚焦让智能体具备长期记忆、情境理解与因果推理能力,是实现跨任务迁移和自我规划的关键方向。典型研究包括 DeepMind Gato (统一感知-语言-控制的多任务智能体)和 DeepMind Dreamer 系列 (基于世界模型的想象式规划),以及 Voyager 等开放式具身智能体,通过外部记忆与自我演化实现持续学习。这些系统为机器人具备“记得过去、推演未来”的能力奠定了基础。
全球具身智能产业格局:合作竞争并存


全球机器人产业正处于“合作主导、竞争深化”的时期。中国的供应链效率、美国的 AI 能力、日本的零部件精度、欧洲的工业标准共同塑造全球机器人产业的长期格局。
美国 在前沿 AI 模型与软件领域(DeepMind、OpenAI、NVIDIA)保持领先,但这一优势并未延伸至机器人硬件。中国厂商在迭代速度和真实场景表现上更具优势。美国通过《芯片法案》(CHIPS Act)和《通胀削减法案》(IRA)推动产业回流。中国 凭借规模化制造、垂直整合与政策驱动,在零部件、自动化工厂与人形机器人领域形成领先优势,硬件与供应链能力突出,宇树与优必选等已实现量产,正向智能决策层延伸。但在 算法与仿真训练层与美国仍存较大差距。日本 长期垄断高精度零部件与运动控制技术,工业体系稳健,但 AI 模型融合仍处早期阶段,创新节奏偏稳。韩国在消费级机器人普及方面突出——由 LG、NAVER Labs 等企业引领,并拥有成熟强劲的服务机器人生态体系。欧洲 工程体系与安全标准完善,1X Robotics 等在研发层保持活跃,但部分制造环节外迁,创新重心偏向协作与标准化方向。
三、机器人 × AI × Web3:叙事愿景与现实路径

2025 年,Web3 行业出现与机器人和 AI 融合的新叙事。尽管 Web3 被视为去中心化机器经济的底层协议,但其在不同层面的结合价值与可行性仍存在明显分化:

硬件制造与服务层资本密集、数据闭环弱,Web3 目前仅能在供应链金融或设备租赁等边缘环节发挥辅助作用;仿真与软件生态层的契合度较高,仿真数据与训练任务可上链确权,智能体与技能模块也可通过NFT 或 Agent Token 实现资产化;平台层,去中心化的劳动力与协作网络正展现出最大潜力——Web3 可通过身份、激励与治理一体化机制,逐步构建可信的“机器劳动力市场”,为未来机器经济奠定制度雏形。

从长期愿景来看,协作与平台层是 Web3 与机器人及 AI 融合中最具价值的方向。随着机器人逐步具备感知、语言与学习能力,它们正演化为能自主决策、协作与创造经济价值的智能个体。这些“智能劳动者”真正参与经济体系,仍需跨越四个身份、信任、激励与治理核心门槛。
在身份层,机器需具备可确权、可追溯的数字身份。通过Machine DID,每个机器人、传感器或无人机都能在链上生成唯一可验证的“身份证”,绑定其所有权、行为记录与权限范围,实现安全交互与责任界定。在信任层,关键在于让“机器劳动”可验证、可计量、可定价。借助 智能合约、预言机与审计机制,结合 物理工作证明(PoPW)、可信执行环境(TEE) 与 零知识证明(ZKP),可确保任务执行过程的真实性与可追溯性,使机器行为具备经济核算价值。在激励层,Web3 通过 Token 激励体系、账户抽象与状态通道 实现机器间的自动结算与价值流转。机器人可通过微支付完成算力租赁、数据共享,并以质押与惩罚机制保障任务履约;借助智能合约与预言机,还可形成无需人工调度的去中心化“机器协作市场”。在治理层,当机器具备长期自治能力后,Web3 提供透明、可编程的治理框架:以 DAO 治理 共同决策系统参数,以 多签与信誉机制 维护安全与秩序。长期来看,这将推动机器社会迈向 “算法治理” 阶段——人类设定目标与边界,机器间以合约维系激励与平衡。
Web3 与机器人融合终极愿景:真实环境评测网络——由分布式机器人组成的“现实世界推理引擎”,在多样、复杂的物理场景中持续测试与基准模型能力;以及机器人劳动力市场——机器人在全球执行可验证的现实任务,通过链上结算获取收益,并将价值再投入算力或硬件升级。
从现实路径来看,具身智能与Web3的结合仍处于早期探索期, 去中心化机器智能经济体更多停留在叙事与社区驱动层面。现实中具备可行潜力的结合方向,主要体现在以下三方面:
(1)数据众包与确权——Web3 通过链上激励与追溯机制,鼓励贡献者上传真实世界数据;
(2)全球长尾参与——跨境小额支付与微激励机制有效降低数据采集与分发成本;
(3)金融化与协作创新——DAO 模式可推动机器人资产化、收益凭证化及机器间结算机制。
总体来看,短期主要集中在数据采集与激励层;中期有望在“稳定币支付 + 长尾数据聚合”及 RaaS 资产化与结算层 实现突破;长期,若人形机器人规模化普及,Web3 或将成为机器所有权、收益分配与治理的制度底层,推动真正的去中心化机器经济形成。
四、Web3机器人生态图谱与精选案例
基于“可验证进展、技术公开度、产业相关度”三项标准,梳理当前 Web3 × Robotics 代表性项目,并按五层架构归类:模型智能层、机器经济层、数据采集层、感知与仿真基础层、机器人资产收益层。为保持客观,我们已剔除明显“蹭热点”或资料不足项目;如有疏漏,欢迎指正。



模型智能层(Model & Intelligence)
Openmind - Building Android for Robots  (https://openmind.org/)
OpenMind 是一个面向具身智能(Embodied AI)与机器人控制的开源操作系统(Robot OS),目标是构建全球首个去中心化机器人运行环境与开发平台。 项目核心包括两大组件:
OM1:构建在 ROS2之上的模块化开源 AI 智能体运行时(AI Runtime Layer),用于编排感知、规划与动作管线,服务于数字与实体机器人;FABRIC:分布式协调层(Fabric Coordination Layer),连接云端算力、模型与现实机器人,使开发者可在统一环境中控制和训练机器人。

OpenMind 的核心在于充当 LLM(大语言模型)与机器人世界之间的智能中间层,让语言智能真正转化为具身智能(Embodied Intelligence),构建起从 理解(Language → Action) 到 对齐(Blockchain → Rules) 的智能骨架。OpenMind 多层系统实现了完整的协作闭环:人类通过 OpenMind App 提供反馈与标注(RLHF 数据),Fabric Network 负责身份验证、任务分配与结算协调,OM1 Robots 执行任务并遵循区块链上的“机器人宪法”完成行为审计与支付,从而实现 人类反馈 → 任务协作 → 链上结算 的去中心化机器协作网络。


项目进展与现实评估
OpenMind 处于“技术可运行、商业未落地”的早期阶段。核心系统 OM1 Runtime 已在 GitHub 开源,可在多平台运行并支持多模态输入,通过自然语言数据总线(NLDB)实现语言到行动的任务理解,具备较高原创性但仍偏实验,Fabric 网络 与链上结算仅完成接口层设计。
生态上,项目已与 Unitree、Ubtech、TurtleBot 等开放硬件及 Stanford、Oxford、Seoul Robotics 等高校合作,主要用于教育与研究验证,尚无产业化落地。App 已上线测试版,但激励与任务功能仍处早期。
商业模式方面,OpenMind 构建了 OM1(开源系统)+ Fabric(结算协议)+ Skill Marketplace(激励层) 的三层生态,目前尚无营收,依赖约 2000 万美元早期融资(Pantera、Coinbase Ventures、DCG)。总体来看,技术领先但商业化与生态仍处起步阶段,若 Fabric 成功落地,有望成为“具身智能时代的 Android”,但周期长、风险高、对硬件依赖强。

CodecFlow - The Execution Engine for Robotics  (https://codecflow.ai)
CodecFlow 是一个基于 Solana 网络 的去中心化执行层协议(Fabric),旨在为 AI 智能体与机器人系统提供按需运行环境,让每一个智能体拥有“即时机器(Instant Machine)”。项目核心由三大模块构成:
Fabric :跨云算力聚合层(Weaver + Shuttle + Gauge),可在数秒内为AI任务生成安全的虚拟机、GPU容器或机器人控制节点;optr SDK:智能体执行框架(Python接口),用于创建可操作桌面、仿真或真实机器人的“Operator”;Token 激励:链上激励与支付层,连接计算提供者、智能体开发者与自动化任务用户,形成去中心化算力与任务市场。
CodecFlow 的核心目标是打造“AI与机器人操作员的去中心化执行底座”,让任何智能体可在任意环境(Windows / Linux / ROS / MuJoCo / 机器人控制器)中安全运行,实现从 算力调度(Fabric) → 系统环境(System Layer) → 感知与行动(VLA Operator) 的通用执行架构。
项目进展与现实评估
已发布早期版本的 Fabric 框架(Go) 与 optr SDK(Python),可在网页或命令行环境中启动隔离算力实例。Operator 市场 预计于 2025 年底上线,定位为 AI 算力的去中心化执行层,
主要服务对象包括 AI 开发者、机器人研究团队与自动化运营公司。


机器经济层(Machine Economy Layer)
BitRobot - The World’s Open Robotics Lab  (https://bitrobot.ai)
BitRobot 是一个面向具身智能(Embodied AI)与机器人研发的去中心化科研与协作网络(Open Robotics Lab),由 FrodoBots Labs 与 Protocol Labs 联合发起。其核心愿景是:通过“子网(Subnets)+ 激励机制 + 可验证工作(VRW)”的开放架构, 核心作用包括:
通过 VRW (Verifiable Robotic Work) 标准定义并验证每一项机器人任务的真实贡献;通过 ENT (Embodied Node Token) 为机器人赋予链上身份与经济责任;通过 Subnets 组织科研、算力、设备与操作者的跨地域协作;通过 Senate + Gandalf AI 实现“人机共治”的激励决策与科研治理。


自 2025 年发布白皮书以来,BitRobot 已运行多个子网(如 SN/01 ET Fugi、SN/05 SeeSaw by Virtuals Protocol),实现去中心化远程操控与真实场景数据采集,并推出 $5M Grand Challenges 基金 推动全球模型开发的科研竞赛。
peaq – The Economy of Things  (https://www.peaq.network)
peaq 是专为机器经济打造的 Layer-1 区块链,为数百万台机器人与设备提供机器身份、链上钱包、访问控制以及纳秒级时间同步(Universal Machine Time)等底层能力。其 Robotics SDK 使开发者能够以极少代码让机器人“机器经济就绪”,实现跨厂商、跨系统的互操作性与交互。
目前,peaq 已上线全球首个代币化机器人农场,并支持 60 余个真实世界的机器应用。其代币化框架帮助机器人公司为资本密集型硬件筹集资金,并将参与方式从传统 B2B/B2C 扩展至更广泛的社区层。凭借由网络费用注入的协议级激励池,peaq 可补贴新设备接入并支持开发者,从而形成推动机器人与物理 AI 项目加速扩张的经济飞轮。


数据采集层 (Data Layer)
旨在解决具身智能训练中稀缺且昂贵的高质量现实世界数据。通过多种路径采集和生成人机交互数据,包括远程操控(PrismaX, BitRobot Network)、第一视角与动作捕捉(Mecka、BitRobot Network、Sapien、Vader、NRN)以及仿真与合成数据(BitRobot Network),为机器人模型提供可扩展、可泛化的训练基础。

需要明确的是,Web3 并不擅长“生产数据”——在硬件、算法与采集效率上,Web2 巨头远超任何 DePIN 项目。其真正价值在于重塑数据的分配与激励机制。基于“稳定币支付网络 + 众包模型”,通过无许可的激励体系与链上确权机制,实现低成本的小额结算、贡献溯源与自动分润。但开放式众包仍面临质量与需求闭环难题——数据质量参差不齐,缺乏有效验证与稳定买方。

PrismaX  (https://gateway.prismax.ai)
PrismaX 是一个面向具身智能(Embodied AI)的去中心化远程操控与数据经济网络,旨在构建“全球机器人劳动力市场”,让人类操作者、机器人设备与AI模型通过链上激励系统协同进化。项目核心包括两大组件:
Teleoperation Stack —— 远程操控系统(浏览器/VR界面 + SDK),连接全球机械臂与服务机器人,实现人类实时操控与数据采集;Eval Engine —— 数据评估与验证引擎(CLIP + DINOv2 + 光流语义评分),为每条操作轨迹生成质量评分并上链结算。
PrismaX 通过去中心化激励机制,将人类操作行为转化为机器学习数据,构建从 远程操控 → 数据采集 → 模型训练 → 链上结算 的完整闭环,实现“人类劳动即数据资产”的循环经济。


项目进展与现实评估: PrismaX 已在 2025 年 8 月上线测试版(gateway.prismax.ai),用户可远程操控机械臂执行抓取实验并生成训练数据。Eval Engine 已在内部运行, 整体来看,PrismaX 技术实现度较高,定位清晰,是连接“人类操作 × AI模型 × 区块链结算”的关键中间层。其长期潜力有望成为“具身智能时代的去中心化劳动与数据协议”,但短期仍面临规模化挑战。
BitRobot Network(https://bitrobot.ai/)
BitRobot Network 通过其子网实现视频、远程操控与仿真等多源数据采集。SN/01 ET Fugi 允许用户远程控制机器人完成任务,在“现实版 Pokémon Go 式”的交互中采集导航与感知数据。该玩法促成了 FrodoBots-2K 数据集的诞生,这是当前最大规模的人机导航开源数据集之一,被 UC Berkeley RAIL 和 Google DeepMind 等机构使用。SN/05 SeeSaw (Virtual Protocol)则通过 iPhone 在真实环境中大规模众包采集第一视角视频数据。其他已公布的子网,如 RoboCap 和 Rayvo,则专注于利用低成本实体设备采集第一视角视频数据。
Mecka  (https://www.mecka.ai)
Mecka 是一家机器人数据公司,通过游戏化的手机采集和定制硬件设备,众包获取第一视角视频、人体运动数据以及任务演示,用于构建大规模多模态数据集,支持具身智能模型的训练。
Sapien (https://www.sapien.io/)
Sapien 是一个以“人类运动数据驱动机器人智能”为核心的众包平台,通过可穿戴设备和移动端应用采集人体动作、姿态与交互数据,用于训练具身智能模型。项目致力于构建全球最大的人体运动数据网络,让人类的自然行为成为机器人学习与泛化的基础数据源。
Vader(https://www.vaderai.ai)
Vader 通过其现实世界 MMO 应用 EgoPlay 众包收集第一视角视频与任务示范:用户以第一人称视角记录日常活动并获得 $VADER 奖励。其 ORN 数据流水线 能将原始 POV 画面转换为经过隐私处理的结构化数据集,包含动作标签与语义叙述,可直接用于人形机器人策略训练。
NRN Agents(https://www.nrnagents.ai/)
一个游戏化的具身 RL 数据平台,通过浏览器端机器人控制与模拟竞赛来众包人类示范数据。NRN 通过“竞技化”任务生成长尾行为轨迹,用于模仿学习与持续强化学习,并作为可扩展的数据原语支撑 sim-to-real 策略训练。
具身智能数据采集层项目对比

感知与仿真(Middleware & Simulation)

感知与仿真层为机器人提供连接物理世界与智能决策的核心基础设施,包括定位、通信、空间建模、仿真训练等能力,是构建大规模具身智能系统的“中间层骨架”。当前该领域仍处于早期探索阶段,各项目分别在高精度定位、共享空间计算、协议标准化与分布式仿真等方向形成差异化布局,尚未出现统一标准或互通生态。

中间件与空间基建(Middleware & Spatial Infra)
机器人核心能力——导航、定位、连接性与空间建模——构成了连接物理世界与智能决策的关键桥梁。尽管更广泛的 DePIN 项目(Silencio、WeatherXM、DIMO)开始提及“机器人,但下列项目与具身智能最直接相关。
RoboStack – Cloud-Native Robot Operating Stack  (https://robostack.io)
RoboStack 是云原生机器人中间件,通过 RCP(Robot Context Protocol)实现机器人任务的实时调度、远程控制与跨平台互操作,并提供云端仿真、工作流编排与 Agent 接入能力。
GEODNET – Decentralized GNSS Network  (https://geodnet.com)
GEODNET 是全球去中心化 GNSS 网络,提供厘米级 RTK 高精度定位。通过分布式基站和链上激励,为无人机、自动驾驶与机器人提供实时“地理基准层”。
Auki – Posemesh for Spatial Computing (https://www.auki.com)
Auki 构建了去中心化的 Posemesh 空间计算网络,通过众包传感器与计算节点生成实时 3D 环境地图,为 AR、机器人导航和多设备协作提供共享空间基准。它是连接 虚拟空间与现实场景 的关键基础设施,推动 AR × Robotics 的融合。
Tashi Network — 机器人实时网格协作网络 (https://tashi.network)
去中心化实时网格网络,实现亚 30ms 共识、低延迟传感器交换与多机器人状态同步。其 MeshNet SDK 支持共享 SLAM、群体协作与鲁棒地图更新,为具身 AI 提供高性能实时协作层。
Staex — 去中心化连接与遥测网络 (https://www.staex.io)
源自德国电信研发部门的去中心化连接层,提供安全通信、可信遥测与设备到云的路由能力,使机器人车队能够可靠交换数据并跨不同运营方协作。
仿真与训练系统(Distributed Simulation & Learning)
Gradient - Towards Open Intelligence(https://gradient.network/)
Gradient 是建设“开放式智能(Open Intelligence)”的 AI 实验室,致力于基于去中心化基础设施实现分布式训练、推理、验证与仿真;其当前技术栈包括 Parallax(分布式推理)、Echo(分布式强化学习与多智能体训练) 以及 Gradient Cloud(面向企业的AI 解决方案)。在机器人方向,Mirage 平台面向具身智能训练提供 分布式仿真、动态交互环境与大规模并行学习 能力,用于加速世界模型与通用策略的训练落地。Mirage 正在与 NVIDIA 探讨与其 Newton 引擎的潜在协作方向。

机器人资产收益层(RobotFi / RWAiFi)
这一层聚焦于将机器人从“生产性工具”转化为“可金融化资产”的关键环节,通过 资产代币化、收益分配与去中心化治理,构建机器经济的金融基础设施。代表项目包括:
XmaquinaDAO – Physical AI DAO (https://www.xmaquina.io)
XMAQUINA 是一个去中心化生态系统,为全球用户提供对顶尖人形机器人与具身智能公司的高流动性参与渠道,将原本只属于风险投资机构的机会带上链。其代币 DEUS 既是流动化指数资产,也是治理载体,用于协调国库分配与生态发展。通过 DAO Portal 与 Machine Economy Launchpad,社区能够通过机器资产的代币化与结构化的链上参与,共同持有并支持新兴的 Physical AI 项目。
GAIB – The Economic Layer for AI Infrastructure  (https://gaib.ai/)
GAIB 致力于为 GPU 与机器人等实体 AI 基础设施提供统一的 经济层,将去中心化资本与真实AI基建资产连接起来,构建可验证、可组合、可收益的智能经济体系。
在机器人方向上,GAIB 并非“销售机器人代币”,而是通过将机器人设备与运营合同(RaaS、数据采集、遥操作等)金融化上链,实现“真实现金流 → 链上可组合收益资产”的转化。这一体系涵盖硬件融资(融资租赁 / 质押)、运营现金流(RaaS / 数据服务)与数据流收益(许可 / 合约)等环节,使机器人资产及其现金流变得 可度量、可定价、可交易。
GAIB 以 AID / sAID 作为结算与收益载体,通过结构化风控机制(超额抵押、准备金与保险)保障稳健回报,并长期接入 DeFi 衍生品与流动性市场,形成从“机器人资产”到“可组合收益资产”的金融闭环。目标是成为 AI 时代的经济主干(Economic Backbone of Intelligence)



Web3机器人生态图谱: https://fairy-build-97286531.figma.site/
五、总结与展望:现实挑战与长期机会
从长期愿景看,机器人 × AI × Web3 的融合旨在构建去中心化机器经济体系(DeRobot Economy),推动具身智能从“单机自动化”迈向“可确权、可结算、可治理”的网络化协作。其核心逻辑是通过“Token → 部署 → 数据 → 价值再分配”形成自循环机制,使机器人、传感器与算力节点实现确权、交易与分润。
然而,从现实阶段来看,该模式仍处早期探索期,距离形成稳定现金流与规模化商业闭环尚远。多数项目停留在叙事层面,实际部署有限。机器人制造与运维属资本密集型产业,单靠代币激励难以支撑基础设施扩张;链上金融设计虽具可组合性,但尚未解决真实资产的风险定价与收益兑现问题。因此,所谓“机器网络自循环”仍偏理想化,其商业模式有待现实验证。
模型智能层(Model & Intelligence Layer)是当前最具长期价值的方向。以 OpenMind 为代表的开源机器人操作系统,尝试打破封闭生态、统一多机器人协作与语言到动作接口。其技术愿景清晰、系统完整,但工程量巨大、验证周期长,尚未形成产业级正反馈。机器经济层(Machine Economy Layer) 仍处于前置阶段,现实中机器人数量有限,DID 身份与激励网络尚难形成自洽循环。当前距离“机器劳动力经济”尚远。未来唯有具身智能实现规模化部署后,链上身份、结算与协作网络的经济效应才会真正显现。数据采集层(Data Layer) 数据采集层门槛相对最低,但是目前最接近商业可行的方向。具身智能数据采集对时空连续性与动作语义精度要求极高,决定其质量与复用性。如何在“众包规模”与“数据可靠性”之间平衡,是行业核心挑战。PrismaX 先锁定 B 端需求,再分发任务采集验证一定程度上提供可复制模板,但生态规模与数据交易仍需时间积累。感知与仿真层(Middleware & Simulation Layer) 仍在技术验证期,缺乏统一标准与接口尚未形成互通生态。仿真结果难以标准化迁移至真实环境,Sim2Real 效率受限。资产收益层(RobotFi / RWAiFi)Web3 主要在供应链金融、设备租赁与投资治理等环节发挥辅助作用,提升透明度与结算效率,而非重塑产业逻辑。
当然,我们认为,机器人 × AI × Web3 的交汇点依然代表着下一代智能经济体系的原点。它不仅是技术范式的融合,更是生产关系的重构契机:当机器具备身份、激励与治理机制,人机协作将从局部自动化迈向网络化自治。短期内,这一方向仍以叙事与实验为主,但它所奠定的制度与激励框架,正为未来机器社会的经济秩序铺设基础。从长期视角看,具身智能与 Web3 的结合将重塑价值创造的边界——让智能体成为真正可确权、可协作、可收益的经济主体。

免责声明:本文在创作过程中借助了 ChatGPT-5 与Deepseek的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
查看原文
Brevis 研究报告:zkVM 和 ZK 数据协处理器的无限可验证计算层可验证计算的范式——「链下计算 + 链上验证」——已成为区块链系统的通用计算模型。它使区块链应用能够在保持去中心化和无信任作为核心安全保证的同时,实现近乎无限的计算自由。零知识证明(ZKP)构成了这一范式的骨干,其应用主要集中在三个基础方向:可扩展性、隐私和互操作性与数据完整性。可扩展性是第一个达到生产的 ZK 应用,将执行移至链下,并在链上验证简洁的证明,以实现高吞吐量和低成本的无信任扩展。

Brevis 研究报告:zkVM 和 ZK 数据协处理器的无限可验证计算层

可验证计算的范式——「链下计算 + 链上验证」——已成为区块链系统的通用计算模型。它使区块链应用能够在保持去中心化和无信任作为核心安全保证的同时,实现近乎无限的计算自由。零知识证明(ZKP)构成了这一范式的骨干,其应用主要集中在三个基础方向:可扩展性、隐私和互操作性与数据完整性。可扩展性是第一个达到生产的 ZK 应用,将执行移至链下,并在链上验证简洁的证明,以实现高吞吐量和低成本的无信任扩展。
Brevis研报:ZKVM 与数据协处理器的无限可信计算层“链下计算 + 链上验证”的可信计算(Verifiable Computing)范式,已成为区块链系统的通用计算模型。它让区块链应用在保持去中心化与信任最小化(trustlessness)安全性的前提下,获得几乎无限的计算自由度(computational freedom)。零知识证明(ZKP)是该范式的核心支柱,其应用主要集中在扩容(Scalability)、隐私(Privacy)以及互操作与数据完整性(Interoperability & Data Integrity)三大基础方向。其中,扩容是 ZK 技术最早落地的场景,通过将交易执行移至链下、以简短证明在链上验证结果,实现高 TPS 与低成本的可信扩容。 ZK 可信计算的演进可概括为 L2 zkRollup → zkVM → zkCoprocessor → L1 zkEVM。早期 L2 zkRollup 将执行迁至二层并在一层提交有效性证明(Validity Proof),以最小改动实现高吞吐与低成本扩容。 zkVM 随后扩展为通用可验证计算层,支持跨链验证、AI 推理与加密计算(代表项目:Risc Zero、Succinct、Brevis Pico)。 zkCoprocessor 与之并行发展,作为场景化验证模块,为 DeFi、RWA、风控等提供即插即用的计算与证明服务(代表项目:Brevis、Axiom)。2025 年,zkEVM 概念延伸至 L1 实时证明(Realtime Proving, RTP),在 EVM 指令级构建可验证电路,使零知识证明直接融入以太坊主网执行与验证流程,成为原生可验证的执行机制。这一脉络体现出区块链从“可扩展”迈向“可验证”的技术跃迁,开启可信计算的新阶段。 一、以太坊zkEVM扩容之路:从 L2 Rollup 到 L1实时证明 以太坊的 zkEVM 扩容路径经历两个阶段: 阶段一(2022–2024):L2 zkRollup将执行搬至二层,在一层提交有效性证明;显著降低成本并提升吞吐,但带来流动性与状态碎片化,L1 仍受制于 N-of-N 重执行。阶段二(2025–):L1 实时证明(Realtime Proving, RTP) 以 “1-of-N 证明 + 全网轻量验证” 取代重执行,在不牺牲去中心化的前提下提升吞吐,仍在演进发展中。 L2 zkRollup 阶段:兼容与扩容性能间平衡 在 2022 年 在Layer2生态百花齐放的阶段,以太坊创始人 Vitalik Buterin 提出了 ZK-EVM 四类分类(Type 1–4),系统性揭示了 兼容性(compatibility)与性能(performance)之间的结构性权衡。这一框架为后续 zkRollup 技术路线确立了清晰的坐标: Type 1 完全等价:与以太坊字节码一致,迁移成本最低、证明最慢。Taiko。Type 2 完全兼容:极少底层优化,兼容性最强。Scroll、Linea。Type 2.5 准兼容:小幅改动(gas/预编译等)换性能。Polygon zkEVM、Kakarot。Type 3 部分兼容:改动更大,能跑多数应用但难完全复用 L1 基建。zkSync Era。Type 4 语言级:放弃字节码兼容,直接由高级语言编译为电路,性能最优但需重建生态(代表:Starknet / Cairo)。 当前 L2 zkRollup 模式已趋成熟:通过将执行迁移至二层、在一层提交有效性证明(Validity Proof),以最小改动沿用以太坊生态与工具链,成为主流的扩容与降费方案。其证明对象为 L2 区块与状态转移,而结算与安全仍锚定于 L1。该架构显著提升吞吐与效率,并保持对开发者的高度兼容,但也带来 流动性与状态碎片化,且 L1 仍受限于 N-of-N 重执行瓶颈。 L1 zkEVM:实时证明重塑以太坊轻验证逻辑 2025 年 7 月,以太坊基金会发表文章《Shipping an L1 zkEVM #1: Realtime Proving》 正式提出 L1 zkEVM 路线。L1 zkEVM 把以太坊从 N-of-N 重执行 升级为 1-of-N 证明 + 全网快速验证:由少数 prover 对整块 EVM 状态转移生成短证明,所有验证者仅做常数时间验证。该方案在不牺牲去中心化的前提下,实现 L1 级实时证明(Realtime Proving),安全提升主网 Gas 上限与吞吐,并显著降低节点硬件门槛。其落地计划是以 zk 客户端 替代传统执行客户端,先行并行运行,待性能、安全与激励机制成熟后,逐步成为协议层的新常态。 N of N 旧范式:所有验证者重复执行整块交易来校验,安全但吞吐受限、峰值费高。1 of N 新范式:由少数 prover 执行整块并产出短证明;全网只做常数时间验证。验证成本远低于重执行,可安全提高 L1 gas 上限,并减少硬件要求。 L1 zkEVM 路线图三大主线 实时证明(Realtime Proving):在 12 秒槽时间内完成整块证明,通过并行化与硬件加速压缩延迟;客户端与协议集成:标准化证明验证接口,先可选、后默认;激励与安全:建立 Prover 市场与费用模型,强化抗审查与网络活性。 以太坊 L1 实时证明(RTP) 是用 zkVM 在链下重执行整块交易并生成加密证明,让验证者无需重算、只需在 10 秒内验证一个小型证明,从而实现“以验代执”,大幅提升以太坊的可扩展性与去信任验证效率。根据以太坊基金会官方 zkEVM Tracker 页面,目前参与 L1 zkEVM 实时证明路线的主要团队包括 SP1 Turbo(Succinct Labs)、Pico(Brevis)、Risc Zero、ZisK、Airbender(zkSync)、OpenVM(Axiom)和Jolt(a16z)。 二、超越以太坊:通用zkVM和zkCoprocessor 而在以太坊生态之外,零知识证明(ZKP)技术也延伸至更广泛的 通用可验证计算(Verifiable Computing) 领域,形成以 zkVM 与 zkCoprocessor 为核心的两类技术体系。 zkVM:通用可验证计算层 面向任意程序的可验证执行引擎,常见指令集架构包括 RISC-V、MIPS 与 WASM。开发者可将业务逻辑编译至 zkVM,由 prover 在链下执行并生成可在链上验证的零知识证明(ZKP),既可用于 以太坊 L1 的区块证明,也适用于 跨链验证、AI 推理、加密计算与复杂算法 等场景。其优势是通用性与适配范围广,但电路复杂、证明成本高,需依赖多 GPU 并行与强工程优化。代表项目包括 Risc Zero、Succinct SP1、Brevis Pico / Prism。 zkCoprocessor:场景化可验证模块 面向具体业务场景提供“即插即用”的计算与证明服务。平台预置数据访问与电路逻辑(如历史链上数据读取、TVL、收益结算、身份验证等),应用方通过 SDK / API 调用即可获得计算结果与证明上链消费。该模式上手快、性能优、成本低,但通用性有限。典型项目包括 Brevis zkCoprocessor、Axiom等。 总体而言,zkVM 与 zkCoprocessor 均遵循“链下计算 + 链上验证”的可信计算范式,通过零知识证明在链上验证链下结果。其经济逻辑建立在这样一个前提之上:链上直接执行的成本远高于链下证明生成与链上验证的综合成本。 在通用性与工程复杂度上,二者的关键差异在于 : zkVM 是 通用计算基础设施,适合复杂、跨域或 AI 场景,具备最高灵活度;zkCoprocessor 是 模块化验证服务,为高频可复用场景(DeFi、RWA、风控等)提供低成本、可直接调用的验证接口。 在商业路径上,zkVM 与 zkCoprocessor 二者的差异在于: zkVM 采用 Proving-as-a-Service 模式,按每次证明(ZKP)计费,主要面向 L2 Rollup 等基础设施客户,特点是合同规模大、周期长、毛利率稳定;zkCoprocessor 则以 Proof API-as-a-Service 为主,通过 API 调用或 SDK 集成按任务计费,更接近 SaaS 模式,面向 DeFi等应用层协议,集成快、扩张性强。 总体而言,zkVM 是可验证计算的底层引擎,zkCoprocessor 是应用层验证模块:前者构筑技术护城河,后者驱动商业化落地,共同构成通用可信计算网络。 三、Brevis的产品版图与技术路径 从以太坊的 L1 实时证明(Realtime Proving) 出发,ZK 技术正逐步迈向以 通用 zkVM 与 zkCoprocessor 架构为核心的 可验证计算时代。而Brevis Network 是 zkVM 与 zkCoprocessor 的融合体,构建了一个以零知识计算为核心、兼具高性能与可编程性的 通用可验证计算基础设施 —— 通向万物的无限计算层(The Infinite Compute Layer for Everything.) 3.1 Pico zkVM:通用可验证计算的模块化证明架构 2024年Vitalik 在《Glue and Coprocessor Architectures》中提出“通用执行层 + 协处理器加速层”(glue & coprocessor)架构。复杂计算可拆分为通用的业务逻辑与结构化的密集计算——前者追求灵活性(如 EVM、Python、RISC-V),后者追求效率(如 GPU、ASIC、哈希模块)。这一架构正成为区块链、AI 与加密计算的共同趋势:EVM 通过 precompile 提速,AI 借助 GPU 并行,ZK 证明则结合通用 VM 与专用电路。未来的关键,是让“胶水层”优化安全与开发体验,而“协处理层”聚焦高效执行,在性能、安全与开放性之间取得平衡。 Pico zkVM 由 Brevis开发,正是这一理念的代表性实现。通过 “通用 zkVM + 协处理器加速” 架构,将灵活的可编程性与专用电路的高性能计算结合。其模块化设计支持多种证明后端(KoalaBear、BabyBear、Mersenne31),并可自由组合执行、递归、压缩等组件形成 ProverChain。 Pico 的模块化体系不仅可自由重组核心组件,还能引入新的证明后端与应用级协处理器(如链上数据、zkML、跨链验证),实现持续演进的可扩展性。开发者可直接使用 Rust 工具链编写业务逻辑,无需零知识背景即可自动生成加密证明,大幅降低开发门槛。 相较于 Succinct SP1 的相对单体化 RISC-V zkVM 架构和 RISC Zero R0VM 的通用 RISC-V 执行模型,Pico 通过 Modular zkVM + Coprocessor System 实现执行、递归与压缩阶段的解耦与扩展,支持多后端切换及协处理器集成,在性能与可扩展性上形成差异化优势。 3.2 Pico Prism:多 GPU 集群的性能突破 Pico Prism 是 Brevis 在多服务器 GPU 架构上的重要突破,并在以太坊基金会的“实时证明(Real-Time Proving, RTP)”框架下创下新纪录。在 64×5090 GPU 集群上实现 6.9 秒平均证明时间 与 96.8% RTP 覆盖率,性能位居同类 zkVM 之首。该系统在架构、工程、硬件与系统层面均实现优化,标志着 zkVM 正从研究原型迈向生产级基础设施。 架构设计:传统 zkVM(如 SP1、R0VM)主要依赖单机 GPU 优化。Pico Prism 首次实现多服务器、多 GPU 集群并行证明(Cluster-Level zkProving),通过多线程与分片调度,将 zk 证明扩展为分布式计算体系,大幅提升并行度与可扩展性。工程实现:构建多阶段异步流水线(Execution / Recursion / Compression)与跨层数据复用机制(proof chunk 缓存与 embedding 重用),并支持多后端切换(KoalaBear、BabyBear、M31),显著提升吞吐效率。硬件策略: 在 64×RTX 5090 GPU(约 $128K)配置下,Pico Prism 实现 6.0–6.9 秒平均证明时间、96.8% RTP 覆盖率,性能/成本比提升约 3.4 倍,较 SP1 Hypercube(160×4090 GPU,10.3 秒)表现更优。系统演进: 作为首个满足以太坊基金会 RTP 指标(>96% sub-10s、<$100K 成本)的 zkVM, Pico Prism 标志着 zk 证明系统从研究原型迈向主网级生产基础设施,为 Rollup、DeFi、AI 与跨链验证等场景提供更具经济性的零知识计算方案。 3.3 ZK Data Coprocessor:区块链数据智能零知识协处理层 智能合约原生设计中“缺乏记忆”——无法访问历史数据、识别长期行为或跨链分析。Brevis 提供的高性能的零知识协处理器(ZK Coprocessor),为智能合约提供跨链历史数据访问与可信计算能力,对区块链的全部历史状态、交易与事件进行验证与计算,应用于数据驱动型 DeFi、主动流动性管理、用户激励及跨链身份识别 等场景。 Brevis 的工作流程包括三步: 数据访问:智能合约通过 API 无信任地读取历史数据;计算执行:开发者使用 SDK 定义业务逻辑,由 Brevis 链下计算并生成 ZK 证明;结果验证:证明结果回传链上,由合约验证并调用后续逻辑。 Brevis 同时支持 Pure-ZK 与 CoChain(OP)模型:前者实现完全信任最小化,但成本较高;后者通过 PoS 验证与 ZK 挑战机制,允许以更低成本实现可验证计算。验证者在以太坊上质押,若结果被 ZK 证明挑战成功将被罚没,从而在安全与效率间取得平衡。通过 ZK + PoS + SDK 的架构融合,Brevis 在安全性与效率之间取得平衡,构建出一个可扩展的可信数据计算层。目前,Brevis 已服务于 PancakeSwap、Euler、Usual、Linea 等协议,所有 zkCoprocessor 合作 均基于 Pure-ZK 模式,为 DeFi、奖励分配与链上身份系统提供可信数据支撑,使智能合约真正具备“记忆与智能”。 3.4 Incentra:基于 ZK 的“可验证激励分发层 Incentra 是由 Brevis zkCoprocessor 驱动的可信激励分发平台,为 DeFi 协议提供安全、透明、可验证的奖励计算与发放机制。它通过零知识证明在链上直接验证激励结果,实现了 无信任、低成本、跨链化 的激励执行。系统在 ZK 电路中完成奖励计算与验证,确保任何用户都可独立验证结果;同时支持跨链操作与访问控制,实现合规、安全的自动化激励分发。 Incentra 主要支持三类激励模型: Token Holding:基于 ERC-20 时间加权余额(TWA)计算长期持有奖励;Concentrated Liquidity:根据 AMM DEX 手续费比例分配流动性奖励,兼容 Gamma、Beefy 等 ALM 协议;Lend & Borrow:基于余额与债务均值计算借贷奖励。 该系统已应用于 PancakeSwap、Euler、Usual、Linea 等项目,实现从激励计算到分发的全链可信闭环,为 DeFi 协议提供了 ZK 级的可验证激励基础设施。 3.5 Brevis 产品技术栈总览 四、Brevis zkVM 技术指标与性能突破 以太坊基金会(EF)提出的 L1 zkEVM 实时证明标准(Realtime Proving, RTP),已成为 zkVM 能否进入以太坊主网验证路线的行业共识与准入门槛,其核心评估指标包括: 延迟要求: P99 ≤ 10 秒(匹配以太坊 12 秒出块周期);硬件约束: CAPEX ≤ $100K、功耗 ≤ 10kW(适配家用/小型机房);安全等级: ≥128-bit(过渡期 ≥100-bit);证明尺寸: ≤300 KiB;系统要求: 不得依赖可信设置、核心代码需完全开源。 2025 年 10 月,Brevis发布《Pico Prism — 99.6% Real-Time Proving for 45M Gas Ethereum Blocks on Consumer Hardware》报告,宣布其 Pico Prism 成为首个全面通过以太坊基金会(EF)实时块证明(RTP)标准的 zkVM。 在 64×RTX 5090 GPU(约 $128K) 配置下,Pico Prism 在 45M gas 区块中实现 平均延迟 6.9 秒、96.8% <10s、99.6% <12s 的性能表现,显著优于 Succinct SP1 Hypercube(36M gas,均时 10.3s,40.9% <10s)。在延迟降低 71%、硬件成本减半的条件下,整体性能/成本效率提升约 3.4×。该成果已获以太坊基金会、Vitalik Buterin 与 Justin Drake 的公开认可。 五、Brevis生态扩张与应用落地 Brevis的ZK 数据协处理器(zkCoprocessor),负责处理 dApp 无法高效完成的复杂计算(如历史行为、跨链数据、聚合分析),并生成可验证的 零知识证明(ZKP)。链上仅需验证这份小证明即可安全调用结果,大幅降低 Gas、延迟与信任成本。相较传统预言机,Brevis 提供的不只是“结果”,更是“结果正确的数学保证”,其主要应用场景可以分为如下几类 智能 DeFi(Intelligent DeFi):基于历史行为与市场状态,实现智能激励与差异化体验(PancakeSwap、Uniswap、MetaMask等)RWA 与稳定币增长(RWA & Stable Token Growth):通过 ZK 验证实现稳定币与 RWA 收益的自动化分配(OpenEden、Usual Money、MetaMask USD)隐私去中心化交易(DEX with Dark Pools):采用链下撮合与链上验证的隐私交易模型,即将上线跨链互操作(Cross-chain Interoperability):支持跨链再质押与 Rollup–L1 互操作,构建共享安全层(Kernel、Celer、0G)公链冷启动(Blockchain Bootstrap):以 ZK 激励机制助力新公链生态冷启动与增长(Linea、TAC)高性能公链(100× Faster L1s):通过实时证明(RTP)技术推动以太坊等公链性能提升(Ethereum、BNB Chain)可验证 AI(Verifiable AI):融合隐私保护与可验证推理,为 AgentFi 与数据经济提供可信算力(Kaito、Trusta) 根据 Brevis Explorer 数据,截至 2025 年 10 月,Brevis 网络 已累计生成超 1.25 亿条 ZK 证明,覆盖 近 9.5 万个地址、9.6 万次应用请求,广泛服务于奖励分发、交易验证与质押证明等场景。生态层面,平台累计分发激励约 2.23 亿美元,支撑的 TVL 超 28 亿美元,相关交易量累计突破 10 亿美元。 当前 Brevis 的生态业务主要聚焦 DeFi 激励分发 与 流动性优化 两大方向,算力核心消耗由 Usual Money、PancakeSwap、Linea Ignition、Incentra 四个项目贡献,合计占比超 85%。其中 Usual Money(46.6M proofs):展现其在大规模激励分发中的长期稳定性;PancakeSwap(20.6M):体现 Brevis 在实时费率与折扣计算中的高性能;Linea Ignition(20.4M):验证其在 L2 生态活动中的高并发处理能力;Incentra(15.2%):标志着 Brevis 从 SDK 工具向标准化激励平台的演进。 在 DeFi 激励领域,Brevis 依托 Incentra 平台支撑多个协议实现透明、持续的奖励分配: Usual Money 年激励规模超 $300M,为稳定币用户与 LP 提供持续收益;OpenEden 与 Bedrock 基于 CPI 模型实现美债与 Restaking 收益分配;Euler、Aave、BeraBorrow 等协议通过 ZK 验证借贷仓位与奖励计算。 在 流动性优化 方面,PancakeSwap、QuickSwap、THENA、Beefy 等采用 Brevis 的动态费率与 ALM 激励插件,实现交易折扣与跨链收益聚合;Jojo Exchange 与 Uniswap Foundation 则利用 ZK 验证机制构建更安全的交易激励体系。 在 跨链与基础设施层,Brevis 已从以太坊扩展至 BNB Chain、Linea、Kernel DAO、TAC 与 0G,为多链生态提供可信计算与跨链验证能力。与此同时,Trusta AI、Kaito AI、MetaMask 等项目正利用 ZK Data Coprocessor 构建隐私保护型积分、影响力评分与奖励系统,推动 Web3 数据智能化发展。在系统底层,Brevis 依托 EigenLayer AVS 网络 提供再质押安全保障,并结合 NEBRA 聚合证明(UPA) 技术,将多份 ZK 证明压缩为单次提交,显著降低链上验证成本与时延。 整体来看,Brevis 已覆盖从 长期激励、活动奖励、交易验证到平台化服务 的全周期应用场景。其高频验证任务与可复用电路模板为 Pico/Prism 提供了真实的性能压力与优化反馈,有望在工程与生态层面反哺 L1 zkVM 实时证明体系,形成技术与应用的双向飞轮。 六、团队背景及项目融资 Mo Dong|联合创始人(Co-founder, Brevis Network) Dr. Mo Dong 是 Brevis Network 的联合创始人,拥有伊利诺伊大学香槟分校(UIUC)计算机科学博士学位,他的研究成果发表于国际顶级学术会议,被谷歌等科技公司采纳,并获得数千次学术引用。他是算法博弈论与协议机制设计领域的专家,专注推动 零知识计算(ZK) 与 去中心化激励机制 的结合,致力于构建可信的 Verifiable Compute Economy。作为 IOSG Ventures 的风险合伙人,亦长期关注 Web3 基础设施的早期投资。 Brevis团队由来自 UIUC、MIT、UC Berkeley 的密码学与计算机科学博士创立,核心成员在零知识证明系统(ZKP)与分布式系统领域具有多年研究经验,并发表多篇经过同行评审的论文。Brevis 曾获 以太坊基金会(Ethereum Foundation) 的技术认可,其核心模块被视为关键的链上可扩展性基础设施。 Brevis 于 2024 年 11 月完成 750 万美元种子轮融资,由 Polychain Capital 与 Binance Labs 共同领投,参投方包括 IOSG Ventures、Nomad Capital、HashKey、Bankless Ventures 及来自 Kyber、Babylon、Uniswap、Arbitrum、AltLayer 的战略天使投资人。 七、ZKVM与ZK Coprocessor市场竞品分析 目前,以太坊基金会支持的 ETHProofs.org 已成为 L1 zkEVM 实时证明(Realtime Proving, RTP)路线的核心追踪平台,用于公开展示各 zkVM 的性能、安全与主网适配进展。 综合来看,RTP 赛道竞争正聚焦四个核心维度: 成熟度:SP1 生产化部署最成熟;Pico 性能领先且接近主网标准;RISC Zero 稳定但 RTP 数据未公开。性能表现:Pico 证明体积约 990 kB,较 SP1(1.48 MB)缩小约 33%,成本更低;安全与审计:RISC Zero 与 SP1 均已通过独立安全审计;Pico 正在审计流程中;开发生态:主流 zkVM 均采用 RISC-V 指令集,SP1 依托 Succinct Rollup SDK 形成广泛集成生态;Pico 支持 Rust 自动生成证明,SDK 完善度快速提升。 从最新数据看,目前RTP 赛道已形成“两强格局 第一梯队Brevis Pico(含 Prism) 与 Succinct SP1 Hypercube 均直指 EF 设定的 P99 ≤ 10s 标准。前者以分布式多 GPU 架构实现性能与成本突破;后者以单体化系统保持工程成熟与生态稳健。Pico 代表性能与架构创新,SP1 代表实用化与生态领先。第二梯队RISC Zero、ZisK、ZKM 在生态兼容与轻量化方面持续探索,但尚未公开完整 RTP 指标(延迟、功耗、CAPEX、安全位、证明体积、可复现性)。Scroll(Ceno) 与 Matter Labs(Airbender) 则尝试将 Rollup 技术延伸至 L1 验证层,体现出从 L2 扩容向 L1 可验证计算的演进趋势。 2025 年,zkVM 赛道已形成以 RISC-V 统一、模块化演进、递归标准化、硬件加速并行 的技术格局。zkVM的通用可验证计算层(Verifiable Compute Layer)可分为三个类别: 性能导向型:Brevis Pico、SP1、Jolt、ZisK 聚焦低延迟与实时证明,通过递归 STARK 与 GPU 加速提升计算吞吐。模块化与可扩展型:OpenVM、Pico、SP1强调模块化可插拔,支持协处理器接入。生态与通用开发型:RISC Zero、SP1、ZisK 聚焦 SDK 与语言兼容,推动普适化。 当前 zk-Coprocessor 赛道已形成以 Brevis、Axiom、Herodotus、Lagrange 为代表的格局。 其中 Brevis 以「ZK 数据协处理器 + 通用 zkVM」融合架构领先,兼具历史数据读取、可编程计算与 L1 RTP 能力;Axiom 聚焦可验证查询与电路回调;Herodotus 专注历史状态访问;Lagrange 以 ZK+Optimistic 混合架构优化跨链计算性能。 整体来看,zk-Coprocessor 正以“可验证服务层”的方式成为连接 DeFi、RWA、AI、身份 等应用的可信计算接口。 八、总结:商业逻辑、工程实现及潜在风险 商业逻辑:性能驱动与双层飞轮 Brevis 以「通用 zkVM(Pico/Prism)」与「数据协处理器(zkCoprocessor)」构建多链可信计算层:前者解决任意计算可验证问题,后者实现历史与跨链数据的业务落地。 其增长逻辑形成“性能—生态—成本”正循环:Pico Prism 的 RTP 性能吸引头部协议集成,带来证明规模增长与单次成本下降,形成持续强化的双层飞轮。竞争优势主要在三点: 性能可复现 —— 已纳入以太坊基金会 ETHProofs RTP 体系;架构壁垒 —— 模块化设计与多 GPU 并行实现高扩展性;商业验证 —— 已在激励分发、动态费率与跨链验证中规模化落地。 工程实现:从“重执行”到“以验代执” Brevis 通过 Pico zkVM 与 Prism 并行框架,在 45M gas 区块中实现平均 6.9 秒、P99 < 10 秒(64×5090 GPU,<$130 K CAPEX),性能与成本均处领先。 zkCoprocessor 模块支持历史数据读取、电路生成与回链验证,并可在 Pure-ZK 与 Hybrid 模式间灵活切换,整体性能已基本对齐以太坊 RTP 硬标准。 潜在风险与关注要点 技术与合规门槛:Brevis 仍需完成功耗、安全位、证明大小及可信设置依赖等硬指标的公开与第三方验证。长尾性能优化仍为关键,EIP 调整可能改变性能瓶颈。竞争与替代风险: Succinct(SP1/Hypercube)在工具链与生态整合上依然领先,Risc Zero、Axiom、OpenVM、Scroll、zkSync 等团队竞争力依然不容忽视。收入集中与业务结构: 当前证明量高度集中(前四大应用占比约 80%),需通过多行业、多公链、多用例拓展降低依赖。GPU 成本或将影响单位毛利。 综合来看,Brevis 已在“性能可复现”与“业务可落地”两端构筑了初步护城河:Pico/Prism 已稳居 L1 RTP 赛道第一梯队,zkCoprocessor 则打开高频、可复用的商业化场景。未来建议以达成以太坊基金会 RTP 全量硬指标为阶段性目标,持续强化协处理器产品标准化与生态拓展,同时推进第三方复现、安全审计与成本透明。通过在基础设施与 SaaS 收入间实现结构平衡,形成可持续的商业增长闭环。 免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。 #ZK #brevis #zkEVM #ZKVM #ZKCoprocessor

Brevis研报:ZKVM 与数据协处理器的无限可信计算层

“链下计算 + 链上验证”的可信计算(Verifiable Computing)范式,已成为区块链系统的通用计算模型。它让区块链应用在保持去中心化与信任最小化(trustlessness)安全性的前提下,获得几乎无限的计算自由度(computational freedom)。零知识证明(ZKP)是该范式的核心支柱,其应用主要集中在扩容(Scalability)、隐私(Privacy)以及互操作与数据完整性(Interoperability & Data Integrity)三大基础方向。其中,扩容是 ZK 技术最早落地的场景,通过将交易执行移至链下、以简短证明在链上验证结果,实现高 TPS 与低成本的可信扩容。

ZK 可信计算的演进可概括为 L2 zkRollup → zkVM → zkCoprocessor → L1 zkEVM。早期 L2 zkRollup 将执行迁至二层并在一层提交有效性证明(Validity Proof),以最小改动实现高吞吐与低成本扩容。 zkVM 随后扩展为通用可验证计算层,支持跨链验证、AI 推理与加密计算(代表项目:Risc Zero、Succinct、Brevis Pico)。 zkCoprocessor 与之并行发展,作为场景化验证模块,为 DeFi、RWA、风控等提供即插即用的计算与证明服务(代表项目:Brevis、Axiom)。2025 年,zkEVM 概念延伸至 L1 实时证明(Realtime Proving, RTP),在 EVM 指令级构建可验证电路,使零知识证明直接融入以太坊主网执行与验证流程,成为原生可验证的执行机制。这一脉络体现出区块链从“可扩展”迈向“可验证”的技术跃迁,开启可信计算的新阶段。
一、以太坊zkEVM扩容之路:从 L2 Rollup 到 L1实时证明
以太坊的 zkEVM 扩容路径经历两个阶段:
阶段一(2022–2024):L2 zkRollup将执行搬至二层,在一层提交有效性证明;显著降低成本并提升吞吐,但带来流动性与状态碎片化,L1 仍受制于 N-of-N 重执行。阶段二(2025–):L1 实时证明(Realtime Proving, RTP) 以 “1-of-N 证明 + 全网轻量验证” 取代重执行,在不牺牲去中心化的前提下提升吞吐,仍在演进发展中。
L2 zkRollup 阶段:兼容与扩容性能间平衡
在 2022 年 在Layer2生态百花齐放的阶段,以太坊创始人 Vitalik Buterin 提出了 ZK-EVM 四类分类(Type 1–4),系统性揭示了 兼容性(compatibility)与性能(performance)之间的结构性权衡。这一框架为后续 zkRollup 技术路线确立了清晰的坐标:

Type 1 完全等价:与以太坊字节码一致,迁移成本最低、证明最慢。Taiko。Type 2 完全兼容:极少底层优化,兼容性最强。Scroll、Linea。Type 2.5 准兼容:小幅改动(gas/预编译等)换性能。Polygon zkEVM、Kakarot。Type 3 部分兼容:改动更大,能跑多数应用但难完全复用 L1 基建。zkSync Era。Type 4 语言级:放弃字节码兼容,直接由高级语言编译为电路,性能最优但需重建生态(代表:Starknet / Cairo)。
当前 L2 zkRollup 模式已趋成熟:通过将执行迁移至二层、在一层提交有效性证明(Validity Proof),以最小改动沿用以太坊生态与工具链,成为主流的扩容与降费方案。其证明对象为 L2 区块与状态转移,而结算与安全仍锚定于 L1。该架构显著提升吞吐与效率,并保持对开发者的高度兼容,但也带来 流动性与状态碎片化,且 L1 仍受限于 N-of-N 重执行瓶颈。
L1 zkEVM:实时证明重塑以太坊轻验证逻辑
2025 年 7 月,以太坊基金会发表文章《Shipping an L1 zkEVM #1: Realtime Proving》 正式提出 L1 zkEVM 路线。L1 zkEVM 把以太坊从 N-of-N 重执行 升级为 1-of-N 证明 + 全网快速验证:由少数 prover 对整块 EVM 状态转移生成短证明,所有验证者仅做常数时间验证。该方案在不牺牲去中心化的前提下,实现 L1 级实时证明(Realtime Proving),安全提升主网 Gas 上限与吞吐,并显著降低节点硬件门槛。其落地计划是以 zk 客户端 替代传统执行客户端,先行并行运行,待性能、安全与激励机制成熟后,逐步成为协议层的新常态。


N of N 旧范式:所有验证者重复执行整块交易来校验,安全但吞吐受限、峰值费高。1 of N 新范式:由少数 prover 执行整块并产出短证明;全网只做常数时间验证。验证成本远低于重执行,可安全提高 L1 gas 上限,并减少硬件要求。
L1 zkEVM 路线图三大主线
实时证明(Realtime Proving):在 12 秒槽时间内完成整块证明,通过并行化与硬件加速压缩延迟;客户端与协议集成:标准化证明验证接口,先可选、后默认;激励与安全:建立 Prover 市场与费用模型,强化抗审查与网络活性。
以太坊 L1 实时证明(RTP) 是用 zkVM 在链下重执行整块交易并生成加密证明,让验证者无需重算、只需在 10 秒内验证一个小型证明,从而实现“以验代执”,大幅提升以太坊的可扩展性与去信任验证效率。根据以太坊基金会官方 zkEVM Tracker 页面,目前参与 L1 zkEVM 实时证明路线的主要团队包括 SP1 Turbo(Succinct Labs)、Pico(Brevis)、Risc Zero、ZisK、Airbender(zkSync)、OpenVM(Axiom)和Jolt(a16z)。

二、超越以太坊:通用zkVM和zkCoprocessor
而在以太坊生态之外,零知识证明(ZKP)技术也延伸至更广泛的 通用可验证计算(Verifiable Computing) 领域,形成以 zkVM 与 zkCoprocessor 为核心的两类技术体系。
zkVM:通用可验证计算层
面向任意程序的可验证执行引擎,常见指令集架构包括 RISC-V、MIPS 与 WASM。开发者可将业务逻辑编译至 zkVM,由 prover 在链下执行并生成可在链上验证的零知识证明(ZKP),既可用于 以太坊 L1 的区块证明,也适用于 跨链验证、AI 推理、加密计算与复杂算法 等场景。其优势是通用性与适配范围广,但电路复杂、证明成本高,需依赖多 GPU 并行与强工程优化。代表项目包括 Risc Zero、Succinct SP1、Brevis Pico / Prism。
zkCoprocessor:场景化可验证模块
面向具体业务场景提供“即插即用”的计算与证明服务。平台预置数据访问与电路逻辑(如历史链上数据读取、TVL、收益结算、身份验证等),应用方通过 SDK / API 调用即可获得计算结果与证明上链消费。该模式上手快、性能优、成本低,但通用性有限。典型项目包括 Brevis zkCoprocessor、Axiom等。
总体而言,zkVM 与 zkCoprocessor 均遵循“链下计算 + 链上验证”的可信计算范式,通过零知识证明在链上验证链下结果。其经济逻辑建立在这样一个前提之上:链上直接执行的成本远高于链下证明生成与链上验证的综合成本。
在通用性与工程复杂度上,二者的关键差异在于 :
zkVM 是 通用计算基础设施,适合复杂、跨域或 AI 场景,具备最高灵活度;zkCoprocessor 是 模块化验证服务,为高频可复用场景(DeFi、RWA、风控等)提供低成本、可直接调用的验证接口。
在商业路径上,zkVM 与 zkCoprocessor 二者的差异在于:
zkVM 采用 Proving-as-a-Service 模式,按每次证明(ZKP)计费,主要面向 L2 Rollup 等基础设施客户,特点是合同规模大、周期长、毛利率稳定;zkCoprocessor 则以 Proof API-as-a-Service 为主,通过 API 调用或 SDK 集成按任务计费,更接近 SaaS 模式,面向 DeFi等应用层协议,集成快、扩张性强。
总体而言,zkVM 是可验证计算的底层引擎,zkCoprocessor 是应用层验证模块:前者构筑技术护城河,后者驱动商业化落地,共同构成通用可信计算网络。


三、Brevis的产品版图与技术路径
从以太坊的 L1 实时证明(Realtime Proving) 出发,ZK 技术正逐步迈向以 通用 zkVM 与 zkCoprocessor 架构为核心的 可验证计算时代。而Brevis Network 是 zkVM 与 zkCoprocessor 的融合体,构建了一个以零知识计算为核心、兼具高性能与可编程性的 通用可验证计算基础设施 —— 通向万物的无限计算层(The Infinite Compute Layer for Everything.)
3.1 Pico zkVM:通用可验证计算的模块化证明架构
2024年Vitalik 在《Glue and Coprocessor Architectures》中提出“通用执行层 + 协处理器加速层”(glue & coprocessor)架构。复杂计算可拆分为通用的业务逻辑与结构化的密集计算——前者追求灵活性(如 EVM、Python、RISC-V),后者追求效率(如 GPU、ASIC、哈希模块)。这一架构正成为区块链、AI 与加密计算的共同趋势:EVM 通过 precompile 提速,AI 借助 GPU 并行,ZK 证明则结合通用 VM 与专用电路。未来的关键,是让“胶水层”优化安全与开发体验,而“协处理层”聚焦高效执行,在性能、安全与开放性之间取得平衡。

Pico zkVM 由 Brevis开发,正是这一理念的代表性实现。通过 “通用 zkVM + 协处理器加速” 架构,将灵活的可编程性与专用电路的高性能计算结合。其模块化设计支持多种证明后端(KoalaBear、BabyBear、Mersenne31),并可自由组合执行、递归、压缩等组件形成 ProverChain。
Pico 的模块化体系不仅可自由重组核心组件,还能引入新的证明后端与应用级协处理器(如链上数据、zkML、跨链验证),实现持续演进的可扩展性。开发者可直接使用 Rust 工具链编写业务逻辑,无需零知识背景即可自动生成加密证明,大幅降低开发门槛。
相较于 Succinct SP1 的相对单体化 RISC-V zkVM 架构和 RISC Zero R0VM 的通用 RISC-V 执行模型,Pico 通过 Modular zkVM + Coprocessor System 实现执行、递归与压缩阶段的解耦与扩展,支持多后端切换及协处理器集成,在性能与可扩展性上形成差异化优势。


3.2 Pico Prism:多 GPU 集群的性能突破
Pico Prism 是 Brevis 在多服务器 GPU 架构上的重要突破,并在以太坊基金会的“实时证明(Real-Time Proving, RTP)”框架下创下新纪录。在 64×5090 GPU 集群上实现 6.9 秒平均证明时间 与 96.8% RTP 覆盖率,性能位居同类 zkVM 之首。该系统在架构、工程、硬件与系统层面均实现优化,标志着 zkVM 正从研究原型迈向生产级基础设施。
架构设计:传统 zkVM(如 SP1、R0VM)主要依赖单机 GPU 优化。Pico Prism 首次实现多服务器、多 GPU 集群并行证明(Cluster-Level zkProving),通过多线程与分片调度,将 zk 证明扩展为分布式计算体系,大幅提升并行度与可扩展性。工程实现:构建多阶段异步流水线(Execution / Recursion / Compression)与跨层数据复用机制(proof chunk 缓存与 embedding 重用),并支持多后端切换(KoalaBear、BabyBear、M31),显著提升吞吐效率。硬件策略: 在 64×RTX 5090 GPU(约 $128K)配置下,Pico Prism 实现 6.0–6.9 秒平均证明时间、96.8% RTP 覆盖率,性能/成本比提升约 3.4 倍,较 SP1 Hypercube(160×4090 GPU,10.3 秒)表现更优。系统演进: 作为首个满足以太坊基金会 RTP 指标(>96% sub-10s、<$100K 成本)的 zkVM, Pico Prism 标志着 zk 证明系统从研究原型迈向主网级生产基础设施,为 Rollup、DeFi、AI 与跨链验证等场景提供更具经济性的零知识计算方案。
3.3 ZK Data Coprocessor:区块链数据智能零知识协处理层
智能合约原生设计中“缺乏记忆”——无法访问历史数据、识别长期行为或跨链分析。Brevis 提供的高性能的零知识协处理器(ZK Coprocessor),为智能合约提供跨链历史数据访问与可信计算能力,对区块链的全部历史状态、交易与事件进行验证与计算,应用于数据驱动型 DeFi、主动流动性管理、用户激励及跨链身份识别 等场景。
Brevis 的工作流程包括三步:
数据访问:智能合约通过 API 无信任地读取历史数据;计算执行:开发者使用 SDK 定义业务逻辑,由 Brevis 链下计算并生成 ZK 证明;结果验证:证明结果回传链上,由合约验证并调用后续逻辑。

Brevis 同时支持 Pure-ZK 与 CoChain(OP)模型:前者实现完全信任最小化,但成本较高;后者通过 PoS 验证与 ZK 挑战机制,允许以更低成本实现可验证计算。验证者在以太坊上质押,若结果被 ZK 证明挑战成功将被罚没,从而在安全与效率间取得平衡。通过 ZK + PoS + SDK 的架构融合,Brevis 在安全性与效率之间取得平衡,构建出一个可扩展的可信数据计算层。目前,Brevis 已服务于 PancakeSwap、Euler、Usual、Linea 等协议,所有 zkCoprocessor 合作 均基于 Pure-ZK 模式,为 DeFi、奖励分配与链上身份系统提供可信数据支撑,使智能合约真正具备“记忆与智能”。
3.4 Incentra:基于 ZK 的“可验证激励分发层
Incentra 是由 Brevis zkCoprocessor 驱动的可信激励分发平台,为 DeFi 协议提供安全、透明、可验证的奖励计算与发放机制。它通过零知识证明在链上直接验证激励结果,实现了 无信任、低成本、跨链化 的激励执行。系统在 ZK 电路中完成奖励计算与验证,确保任何用户都可独立验证结果;同时支持跨链操作与访问控制,实现合规、安全的自动化激励分发。
Incentra 主要支持三类激励模型:
Token Holding:基于 ERC-20 时间加权余额(TWA)计算长期持有奖励;Concentrated Liquidity:根据 AMM DEX 手续费比例分配流动性奖励,兼容 Gamma、Beefy 等 ALM 协议;Lend & Borrow:基于余额与债务均值计算借贷奖励。
该系统已应用于 PancakeSwap、Euler、Usual、Linea 等项目,实现从激励计算到分发的全链可信闭环,为 DeFi 协议提供了 ZK 级的可验证激励基础设施。
3.5 Brevis 产品技术栈总览

四、Brevis zkVM 技术指标与性能突破
以太坊基金会(EF)提出的 L1 zkEVM 实时证明标准(Realtime Proving, RTP),已成为 zkVM 能否进入以太坊主网验证路线的行业共识与准入门槛,其核心评估指标包括:
延迟要求: P99 ≤ 10 秒(匹配以太坊 12 秒出块周期);硬件约束: CAPEX ≤ $100K、功耗 ≤ 10kW(适配家用/小型机房);安全等级: ≥128-bit(过渡期 ≥100-bit);证明尺寸: ≤300 KiB;系统要求: 不得依赖可信设置、核心代码需完全开源。

2025 年 10 月,Brevis发布《Pico Prism — 99.6% Real-Time Proving for 45M Gas Ethereum Blocks on Consumer Hardware》报告,宣布其 Pico Prism 成为首个全面通过以太坊基金会(EF)实时块证明(RTP)标准的 zkVM。
在 64×RTX 5090 GPU(约 $128K) 配置下,Pico Prism 在 45M gas 区块中实现 平均延迟 6.9 秒、96.8% <10s、99.6% <12s 的性能表现,显著优于 Succinct SP1 Hypercube(36M gas,均时 10.3s,40.9% <10s)。在延迟降低 71%、硬件成本减半的条件下,整体性能/成本效率提升约 3.4×。该成果已获以太坊基金会、Vitalik Buterin 与 Justin Drake 的公开认可。


五、Brevis生态扩张与应用落地
Brevis的ZK 数据协处理器(zkCoprocessor),负责处理 dApp 无法高效完成的复杂计算(如历史行为、跨链数据、聚合分析),并生成可验证的 零知识证明(ZKP)。链上仅需验证这份小证明即可安全调用结果,大幅降低 Gas、延迟与信任成本。相较传统预言机,Brevis 提供的不只是“结果”,更是“结果正确的数学保证”,其主要应用场景可以分为如下几类
智能 DeFi(Intelligent DeFi):基于历史行为与市场状态,实现智能激励与差异化体验(PancakeSwap、Uniswap、MetaMask等)RWA 与稳定币增长(RWA & Stable Token Growth):通过 ZK 验证实现稳定币与 RWA 收益的自动化分配(OpenEden、Usual Money、MetaMask USD)隐私去中心化交易(DEX with Dark Pools):采用链下撮合与链上验证的隐私交易模型,即将上线跨链互操作(Cross-chain Interoperability):支持跨链再质押与 Rollup–L1 互操作,构建共享安全层(Kernel、Celer、0G)公链冷启动(Blockchain Bootstrap):以 ZK 激励机制助力新公链生态冷启动与增长(Linea、TAC)高性能公链(100× Faster L1s):通过实时证明(RTP)技术推动以太坊等公链性能提升(Ethereum、BNB Chain)可验证 AI(Verifiable AI):融合隐私保护与可验证推理,为 AgentFi 与数据经济提供可信算力(Kaito、Trusta)

根据 Brevis Explorer 数据,截至 2025 年 10 月,Brevis 网络 已累计生成超 1.25 亿条 ZK 证明,覆盖 近 9.5 万个地址、9.6 万次应用请求,广泛服务于奖励分发、交易验证与质押证明等场景。生态层面,平台累计分发激励约 2.23 亿美元,支撑的 TVL 超 28 亿美元,相关交易量累计突破 10 亿美元。
当前 Brevis 的生态业务主要聚焦 DeFi 激励分发 与 流动性优化 两大方向,算力核心消耗由 Usual Money、PancakeSwap、Linea Ignition、Incentra 四个项目贡献,合计占比超 85%。其中
Usual Money(46.6M proofs):展现其在大规模激励分发中的长期稳定性;PancakeSwap(20.6M):体现 Brevis 在实时费率与折扣计算中的高性能;Linea Ignition(20.4M):验证其在 L2 生态活动中的高并发处理能力;Incentra(15.2%):标志着 Brevis 从 SDK 工具向标准化激励平台的演进。

在 DeFi 激励领域,Brevis 依托 Incentra 平台支撑多个协议实现透明、持续的奖励分配:
Usual Money 年激励规模超 $300M,为稳定币用户与 LP 提供持续收益;OpenEden 与 Bedrock 基于 CPI 模型实现美债与 Restaking 收益分配;Euler、Aave、BeraBorrow 等协议通过 ZK 验证借贷仓位与奖励计算。
在 流动性优化 方面,PancakeSwap、QuickSwap、THENA、Beefy 等采用 Brevis 的动态费率与 ALM 激励插件,实现交易折扣与跨链收益聚合;Jojo Exchange 与 Uniswap Foundation 则利用 ZK 验证机制构建更安全的交易激励体系。
在 跨链与基础设施层,Brevis 已从以太坊扩展至 BNB Chain、Linea、Kernel DAO、TAC 与 0G,为多链生态提供可信计算与跨链验证能力。与此同时,Trusta AI、Kaito AI、MetaMask 等项目正利用 ZK Data Coprocessor 构建隐私保护型积分、影响力评分与奖励系统,推动 Web3 数据智能化发展。在系统底层,Brevis 依托 EigenLayer AVS 网络 提供再质押安全保障,并结合 NEBRA 聚合证明(UPA) 技术,将多份 ZK 证明压缩为单次提交,显著降低链上验证成本与时延。
整体来看,Brevis 已覆盖从 长期激励、活动奖励、交易验证到平台化服务 的全周期应用场景。其高频验证任务与可复用电路模板为 Pico/Prism 提供了真实的性能压力与优化反馈,有望在工程与生态层面反哺 L1 zkVM 实时证明体系,形成技术与应用的双向飞轮。
六、团队背景及项目融资
Mo Dong|联合创始人(Co-founder, Brevis Network)
Dr. Mo Dong 是 Brevis Network 的联合创始人,拥有伊利诺伊大学香槟分校(UIUC)计算机科学博士学位,他的研究成果发表于国际顶级学术会议,被谷歌等科技公司采纳,并获得数千次学术引用。他是算法博弈论与协议机制设计领域的专家,专注推动 零知识计算(ZK) 与 去中心化激励机制 的结合,致力于构建可信的 Verifiable Compute Economy。作为 IOSG Ventures 的风险合伙人,亦长期关注 Web3 基础设施的早期投资。

Brevis团队由来自 UIUC、MIT、UC Berkeley 的密码学与计算机科学博士创立,核心成员在零知识证明系统(ZKP)与分布式系统领域具有多年研究经验,并发表多篇经过同行评审的论文。Brevis 曾获 以太坊基金会(Ethereum Foundation) 的技术认可,其核心模块被视为关键的链上可扩展性基础设施。


Brevis 于 2024 年 11 月完成 750 万美元种子轮融资,由 Polychain Capital 与 Binance Labs 共同领投,参投方包括 IOSG Ventures、Nomad Capital、HashKey、Bankless Ventures 及来自 Kyber、Babylon、Uniswap、Arbitrum、AltLayer 的战略天使投资人。
七、ZKVM与ZK Coprocessor市场竞品分析
目前,以太坊基金会支持的 ETHProofs.org 已成为 L1 zkEVM 实时证明(Realtime Proving, RTP)路线的核心追踪平台,用于公开展示各 zkVM 的性能、安全与主网适配进展。

综合来看,RTP 赛道竞争正聚焦四个核心维度:
成熟度:SP1 生产化部署最成熟;Pico 性能领先且接近主网标准;RISC Zero 稳定但 RTP 数据未公开。性能表现:Pico 证明体积约 990 kB,较 SP1(1.48 MB)缩小约 33%,成本更低;安全与审计:RISC Zero 与 SP1 均已通过独立安全审计;Pico 正在审计流程中;开发生态:主流 zkVM 均采用 RISC-V 指令集,SP1 依托 Succinct Rollup SDK 形成广泛集成生态;Pico 支持 Rust 自动生成证明,SDK 完善度快速提升。
从最新数据看,目前RTP 赛道已形成“两强格局
第一梯队Brevis Pico(含 Prism) 与 Succinct SP1 Hypercube 均直指 EF 设定的 P99 ≤ 10s 标准。前者以分布式多 GPU 架构实现性能与成本突破;后者以单体化系统保持工程成熟与生态稳健。Pico 代表性能与架构创新,SP1 代表实用化与生态领先。第二梯队RISC Zero、ZisK、ZKM 在生态兼容与轻量化方面持续探索,但尚未公开完整 RTP 指标(延迟、功耗、CAPEX、安全位、证明体积、可复现性)。Scroll(Ceno) 与 Matter Labs(Airbender) 则尝试将 Rollup 技术延伸至 L1 验证层,体现出从 L2 扩容向 L1 可验证计算的演进趋势。
2025 年,zkVM 赛道已形成以 RISC-V 统一、模块化演进、递归标准化、硬件加速并行 的技术格局。zkVM的通用可验证计算层(Verifiable Compute Layer)可分为三个类别:
性能导向型:Brevis Pico、SP1、Jolt、ZisK 聚焦低延迟与实时证明,通过递归 STARK 与 GPU 加速提升计算吞吐。模块化与可扩展型:OpenVM、Pico、SP1强调模块化可插拔,支持协处理器接入。生态与通用开发型:RISC Zero、SP1、ZisK 聚焦 SDK 与语言兼容,推动普适化。

当前 zk-Coprocessor 赛道已形成以 Brevis、Axiom、Herodotus、Lagrange 为代表的格局。 其中 Brevis 以「ZK 数据协处理器 + 通用 zkVM」融合架构领先,兼具历史数据读取、可编程计算与 L1 RTP 能力;Axiom 聚焦可验证查询与电路回调;Herodotus 专注历史状态访问;Lagrange 以 ZK+Optimistic 混合架构优化跨链计算性能。 整体来看,zk-Coprocessor 正以“可验证服务层”的方式成为连接 DeFi、RWA、AI、身份 等应用的可信计算接口。

八、总结:商业逻辑、工程实现及潜在风险
商业逻辑:性能驱动与双层飞轮
Brevis 以「通用 zkVM(Pico/Prism)」与「数据协处理器(zkCoprocessor)」构建多链可信计算层:前者解决任意计算可验证问题,后者实现历史与跨链数据的业务落地。
其增长逻辑形成“性能—生态—成本”正循环:Pico Prism 的 RTP 性能吸引头部协议集成,带来证明规模增长与单次成本下降,形成持续强化的双层飞轮。竞争优势主要在三点:
性能可复现 —— 已纳入以太坊基金会 ETHProofs RTP 体系;架构壁垒 —— 模块化设计与多 GPU 并行实现高扩展性;商业验证 —— 已在激励分发、动态费率与跨链验证中规模化落地。
工程实现:从“重执行”到“以验代执”
Brevis 通过 Pico zkVM 与 Prism 并行框架,在 45M gas 区块中实现平均 6.9 秒、P99 < 10 秒(64×5090 GPU,<$130 K CAPEX),性能与成本均处领先。 zkCoprocessor 模块支持历史数据读取、电路生成与回链验证,并可在 Pure-ZK 与 Hybrid 模式间灵活切换,整体性能已基本对齐以太坊 RTP 硬标准。
潜在风险与关注要点
技术与合规门槛:Brevis 仍需完成功耗、安全位、证明大小及可信设置依赖等硬指标的公开与第三方验证。长尾性能优化仍为关键,EIP 调整可能改变性能瓶颈。竞争与替代风险: Succinct(SP1/Hypercube)在工具链与生态整合上依然领先,Risc Zero、Axiom、OpenVM、Scroll、zkSync 等团队竞争力依然不容忽视。收入集中与业务结构: 当前证明量高度集中(前四大应用占比约 80%),需通过多行业、多公链、多用例拓展降低依赖。GPU 成本或将影响单位毛利。
综合来看,Brevis 已在“性能可复现”与“业务可落地”两端构筑了初步护城河:Pico/Prism 已稳居 L1 RTP 赛道第一梯队,zkCoprocessor 则打开高频、可复用的商业化场景。未来建议以达成以太坊基金会 RTP 全量硬指标为阶段性目标,持续强化协处理器产品标准化与生态拓展,同时推进第三方复现、安全审计与成本透明。通过在基础设施与 SaaS 收入间实现结构平衡,形成可持续的商业增长闭环。

免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
#ZK #brevis #zkEVM #ZKVM #ZKCoprocessor
查看原文
Cysic 研究报告:ZK 硬件加速的 ComputeFi 路径作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 零知识证明 (ZK) — 作为下一代加密和可扩展基础设施 — 在区块链扩展、隐私计算、zkML 和跨链验证方面展示了巨大的潜力。然而,证明生成过程极其计算密集且延迟高,形成了工业采用的最大瓶颈。因此,ZK 硬件加速应运而生,成为核心推动力。在这个领域,GPU 在多功能性和迭代速度上表现出色,ASIC 追求终极效率和大规模性能,而 FPGA 则作为结合可编程性和能源效率的灵活中间地带。它们共同构成了推动 ZK 实际应用的硬件基础。

Cysic 研究报告:ZK 硬件加速的 ComputeFi 路径

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao
零知识证明 (ZK) — 作为下一代加密和可扩展基础设施 — 在区块链扩展、隐私计算、zkML 和跨链验证方面展示了巨大的潜力。然而,证明生成过程极其计算密集且延迟高,形成了工业采用的最大瓶颈。因此,ZK 硬件加速应运而生,成为核心推动力。在这个领域,GPU 在多功能性和迭代速度上表现出色,ASIC 追求终极效率和大规模性能,而 FPGA 则作为结合可编程性和能源效率的灵活中间地带。它们共同构成了推动 ZK 实际应用的硬件基础。
Cysic研报:ZK 硬件加速的ComputeFi之路作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 零知识证明(ZK)作为新一代加密与扩容基础设施,已在区块链扩容、隐私计算以及zkML、跨链验证等新兴应用中展现出广阔潜力。然而,其证明生成过程计算量巨大、延迟高昂,成为产业化落地的最大瓶颈。ZK 硬件加速正是在此背景下崛起的核心环节,在 ZK 硬件加速路径上,GPU 以通用性和迭代速度见长,ASIC 追求极致能效与规模化性能,而 FPGA 则作为中间形态,兼具灵活可编程性与较高能效,三者共同构成推动零知识证明落地的硬件基础。 一、ZK 硬件加速的行业格局 GPU、FPGA 和 ASIC 构成了硬件加速的三大主流方案:GPU 以通用并行架构和成熟生态在 AI、ZK 等领域广泛应用;FPGA 依靠可重构特性适合算法快速迭代和低延迟场景;ASIC 则通过专用电路实现极致性能与能效,是规模化和长期基础设施的最终形态。 GPU (Graphics Processing Unit): 通用并行处理器,最初为图形渲染优化,现在广泛用于 AI、ZK与科学计算。FPGA (Field Programmable Gate Array): 可编程硬件电路,逻辑门级别“像乐高一样”可以反复配置,介于通用处理和专用电路之间。ASIC (Application-Specific Integrated Circuit): 为特定任务定制的专用芯片,一次烧录,固定功能,性能和能效最高,但灵活性最差。 GPU市场主流:GPU 已成为 AI 与 ZK 的核心算力资源。在 AI 领域,GPU 依托并行架构与成熟生态(CUDA、PyTorch、TensorFlow),几乎不可替代,是训练与推理的长期主流。在 ZK 领域,GPU 凭借成本与可得性优势成为现阶段最佳方案,但其在大整数模运算、MSM 与 FFT/NTT 等任务上受限于存储与带宽,能效与规模化经济性不足,长期仍需更专用的硬件方案。 FPGA灵活方案:Paradigm 在 2022 年曾押注 FPGA,认为其在灵活性、效率与成本之间处于“甜蜜点”。FPGA 的确具备灵活可编程、开发周期短、硬件可复用等优势,适用于 ZK 证明算法迭代、原型验证、低延迟场景(高频交易、5G 基站)、功耗受限的边缘计算与高安全加密等任务。但在性能和规模化经济性上,FPGA 难以与 GPU、ASIC 竞争。其战略定位更接近“算法未定型时的验证与迭代平台”,以及少数细分行业中的长期刚需。 ASIC终局形态:ASIC 在加密货币挖矿中已高度成熟(比特币SHA-256、莱特币/狗狗币Scryp),通过将算法固化到电路中,ASIC 实现数量级的性能与能效优势成为矿业唯一主导。ASIC在 ZK 证明(如Cysic)与 AI 推理(如 Google TPU、寒武纪)中同样展现巨大潜力。但在 ZK 证明中,由于算法和算子尚未完全标准化,大规模需求仍在酝酿。未来一旦标准固化,ASIC 有望凭借 10–100 倍的性能与能效优势,以及量产后的低边际成本,像矿业 ASIC 一样重塑 ZK 的算力基建。在 AI 领域,由于算法迭代频繁、训练高度依赖矩阵并行,GPU 将继续占据训练主流,但 ASIC 在固定任务和规模化推理中将具备不可替代的价值。 在 ZK 硬件加速的演进路径中,GPU 目前是最优解,兼顾成本、可得性与开发效率,适合快速上线与迭代;FPGA 更像“专项工具”,在超低时延、小批量互联和原型验证中具备价值,但难与 GPU 的经济性抗衡;长期来看,随着 ZK标准趋于稳定,ASIC 将凭借极致的性能/成本与能效优势成为行业主力。整体路径为:短期依赖 GPU 抢占市场与营收,中期以 FPGA 做验证和互联优化,长期押注 ASIC 构筑算力护城河。 二、硬件视角:ZK 加速的底层技术壁垒 Cysic 的核心优势在于 零知识证明(ZK)的硬件加速。在代表性论文 《ZK Hardware Acceleration: The Past, the Present and the Future》 中,团队指出 GPU 具备灵活性和成本效率,而 ASIC 在能效和极致性能上更胜一筹,但需权衡开发成本与可编程性。Cysic 走 ASIC 创新 + GPU 加速 双线并进的路线,从定制芯片到通用 SDK,推动 ZK 从“可验证”走向“实时可用”。 1. ASIC 路线:Cysic C1 芯片与专用设备 Cysic 自研的 C1 芯片 基于 zkVM 架构,具备高带宽与灵活可编程性。基于此Cysic 规划推出ZK Air(便携式)与ZK Pro(高性能)两款硬件产品 ZK Air:便携式加速器,体积类似 iPad 充电器,即插即用,面向轻量级验证与开发;ZK Pro:高性能系统,结合 C1 芯片与前端加速模块,定位于大规模 zkRollup、zkML 等场景。 Cysic 的研究成果直接支撑其 ASIC 路线。团队提出 Hypercube IR 作为 ZK 专用中间表示,将证明电路抽象为规则化并行模式,降低跨硬件迁移门槛,并在电路逻辑中显式保留模运算与访存模式,便于硬件识别与优化;在 Million Keccak/s 实验中,自研 C1 芯片单片实现约 1.31M 次 Keccak 证明/秒(约 13× 加速),展示了专用硬件在能效与吞吐上的潜力;在 Hyperplonk 硬件分析 中,则指出 MSM/MLE 更易并行化,而 Sumcheck 仍是瓶颈。整体来看,Cysic 正在编译抽象、硬件验证和协议适配三方面形成完整方法论,为产品化奠定基础。 2. GPU 路线:通用 SDK + ZKPoG 端到端栈 在 GPU 方向,Cysic 同时推进 通用加速 SDK 与 ZKPoG 全流程优化栈: 通用 GPU SDK:基于自研 CUDA 框架,兼容 Plonky2、Halo2、Gnark、Rapidsnark 等后端,性能超越开源方案,支持多型号 GPU,强调 兼容性与易用性。ZKPoG(Zero-Knowledge Proof on GPU):与清华大学合作研发的端到端 GPU 栈,首次实现从 witness 生成到多项式计算的全流程优化。在消费级 GPU 上最高提速 52×(平均 22.8×),并扩展电路规模 1.6 倍,已在 SHA256、ECDSA、MVM 等应用中验证。 Cysic 的核心竞争力在于 软硬件一体化设计(Hardware–Software Co-Design)。团队自研的 ZK ASIC、GPU 集群与便携矿机 共同构成算力供给的全栈体系,实现从芯片层到协议层的深度协同。Cysic 通过 “ASIC 的极致能效与规模化” 与 “GPU 的灵活性与快速迭代” 的互补格局,在高强度零知识证明场景中确立了领先的 ZKP 硬件供应商地位,并以此为基础,持续推进 ZK 硬件金融化(ComputeFi) 的产业路径。 三、协议视角Cysic Network:PoC 共识下的通用 Proof Layer Cysic 团队于 2025 年 9 月 24 日发布《Cysic Network Whitepaper》。项目以 ComputeFi 为核心,将 GPU、ASIC 与矿机金融化为可编程、可验证、可交易的算力资产,基于 Cosmos CDK + Proof-of-Compute (PoC) 与 EVM 执行层构建去中心化“任务撮合 + 多重验证”市场,统一支持 ZK 证明、AI 推理、挖矿与 HPC。依托自研 ZK ASIC、GPU 集群与便携矿机 的垂直整合能力,以及 CYS/CGT 双代币机制,Cysic 旨在释放真实算力流动性,补齐 Web3 基础设施中“算力”这一关键支柱。 Cysic Network 采用 自底向上的四层模块化架构,实现跨领域的灵活扩展与可验证协作: 硬件层(Hardware Layer):由 CPU、GPU、FPGA、ASIC 矿机及便携式设备组成,构成网络算力基础。共识层(Consensus Layer):基于 Cosmos CDK 构建,并采用改良版 CometBFT + Proof-of-Compute (PoC) 共识机制,将代币质押与算力质押同时纳入验证权重,确保计算与经济安全性统一。执行层(Execution Layer):负责任务调度、负载路由、桥接与投票等核心逻辑,通过 EVM 兼容智能合约 实现多域可编程计算。产品层(Product Layer):面向最终应用场景,集成 ZK 证明市场、AI 推理框架、加密挖矿与 HPC 模块,可灵活接入新型任务类型与验证方法。 作为面向全行业的 ZK Proof Layer,Cysic 提供高性能、低成本的证明生成与验证服务。网络通过 去中心化 Prover 网络 与 离链验证 + 聚合上链机制 提升效率,并以 PoC 模型 将算力贡献与质押权重结合,构建兼具安全性与激励性的计算治理体系。 ZK Proof Layer:去中心化与硬件加速 零知识证明虽能在不泄露信息的前提下验证计算,但生成过程高耗时高成本。Cysic Network 通过 Prover 去中心化 + GPU/ASIC 加速 提升效率,并以 离链验证 + 聚合上链 模式降低以太坊验证的延迟与成本。其流程为:ZK 项目通过合约发布任务 → Prover 去中心化竞争生成证明 → Verifier 多方验证 → 链上合约结算。整体上,Cysic 将硬件加速与去中心化调度结合,打造可扩展的 Proof Layer,为 ZK Rollup、ZKML 与跨链应用提供底层支撑。 节点角色:Cysic Prover 机制 Cysic 在其 ZK 网络中引入 Prover 节点,用户可直接贡献算力或购买 Digital Harvester 执行证明任务,并以 CYS 与 CGT 获取奖励。通过提升 Multiplier 倍速因子可加快任务获取速度。节点需抵押 10 CYS 作为保证金,违规将被扣留。 当前 Prover 的核心任务为 ETHProof Prover,聚焦以太坊主网的区块证明,旨在推动底层的 ZK 化与扩展性建设。整体上,Prover 承担高强度计算任务,是 Cysic 网络性能与安全的核心执行层,并为后续可信推理与 AgentFi 应用提供算力保障。 节点角色:Cysic Verifier 机制 与 Prover 相对应,Verifier 节点负责对证明结果进行轻量级验证,提升网络安全与可扩展性。用户可在 PC、服务器或 官方 Android 应用运行 Verifier,并通过 Multiplier 倍速因子提高任务处理与奖励效率。 Verifier 的参与门槛更低,仅需抵押 0.5 CYS 作为保证金,运行方式简单,可随时加入或退出。整体上,Verifier 以 低成本、轻参与的模式吸引更多用户加入,扩展了 Cysic 在移动端和大众层面的覆盖,增强网络的去中心化与可信验证能力。 截至 2025 年 10月15日,Cysic 网络已初具规模:共运行约 4.2 万 Prover 节点 与 10 万+ Verifier 节点,累计处理任务 9.1 万余个,已分配奖励约 70 万枚 $CYS/$CGT。需注意的是,节点虽数量庞大,但因准入与硬件差异,活跃度与算力贡献分布不均。目前网络已对接 3 个项目,生态仍处早期阶段,其能否进一步演化为 稳定的算力网络与 ComputeFi 基础设施,仍取决于更多实际应用与合作落地。 四、AI 视角Cysic AI:云服务、AgentFi 与可信推理 Cysic AI 的业务布局呈现“产品—应用—战略”三层:底层 Serverless Inference 提供标准化推理 API,降低模型调用门槛;中层 Agent Marketplace 探索 AI Agent 的链上闭环应用;顶层 Verifiable AI 以 ZKP+GPU 加速支撑可信推理,承载 ComputeFi 的长期愿景。 标准产品层:云端推理服务(Serverless Inference) Cysic AI推出即开即用、按需计费的标准推理服务,用户无需自建或维护算力集群,即可通过 API 快速调用多种主流大模型,实现低门槛的智能化接入。当前支持的模型包括 Meta-Llama-3-8B-Instruct(任务与对话优化)、QwQ-32B(推理增强型)、Phi-4(轻量化指令模型)、以及 Llama-Guard-3-8B(内容安全审查),覆盖通用对话、逻辑推理、轻量部署与合规审查等多元需求。该服务在成本与效率之间取得平衡,既满足开发者快速原型搭建,也能支撑企业级应用的规模化推理,是 Cysic 构建可信 AI 基础设施的重要一环。 应用实验层:去中心化智能体市场(Agent Marketplace) Cysic AI推出的 Agent Marketplace 提供一个去中心化的智能体应用平台,用户只需连接 Phantom 钱包并完成认证,即可调用不同的 AI Agent 并通过 Solana USDC 实现自动支付。平台目前已集成三类核心智能体: X Trends Agent:实时解析 X 平台趋势,生成可转化为 MEME Coin 的创意概念;Logo Generator Agent:根据描述快速生成专属项目标识;Publisher Agent:一键将 MEME Coin 部署到 Solana 网络(如 Pump.fun)。 Agent Marketplace 在应用上依托 Agent Swarm Framework 提升协作效率,将多个自治智能体组合为任务协作群体(Swarm),实现分工、并行与容错;在经济上通过 Agent-to-Agent Protocol 实现链上支付与自动激励,确保安全、透明的链上结算,用户仅为成功操作付费。通过这一组合,Cysic 打造了一个涵盖 趋势分析 → 内容生成 → 链上发布 的完整闭环,展示了 AI Agent 在 链上金融化与 ComputeFi 生态 中的落地路径。 战略支柱层:可信推理的硬件加速(Verifiable AI) “推理结果是否可信”是 AI 推理领域的核心挑战。Verifiable AI 以零知识证明(ZKP)对推理结果提供数学级担保、无需泄露输入与模型;传统 ZKML 证明生成过慢难以满足实时需求,Cysic以 GPU 硬件加速突破这一瓶颈, 针对 Verifiable AI 提出了三方面的硬件加速创新: 首先,在 Sumcheck 协议并行化 上,将庞大的多项式计算任务拆分为数万个 CUDA 线程同时执行,使证明生成速度能够随 GPU 核心数实现近乎线性提升。其次,通过 定制有限域算术内核,在寄存器、共享内存及 warp-level 并行设计上进行深度优化,大幅缓解传统 GPU 在模运算中的内存瓶颈,使 GPU始终保持高效运转。最后,Cysic 在 端到端加速栈 ZKPoG 中,覆盖 witness 生成—证明生成—验证的全链路优化,兼容 Plonky2、Halo2 等主流后端,实测最高达 CPU 的 52× 性能,并在 CNN-4M 模型上实现约 10 倍加速。 通过这一整套优化,Cysic 将可验证推理从“理论可行但过慢”真正推向“可实时落地”的阶段,显著降低了延迟与成本,使 Verifiable AI 首次具备进入实时应用场景的可能性。 Cysic 平台兼容 PyTorch 与 TensorFlow,开发者只需将模型封装进 VerifiableModule,即可在不改写代码的前提下,获得推理结果及对应加密证明。在路线图上,将逐步扩展对 CNN、Transformer、Llama、DeepSeek 等模型的支持,并发布人脸识别、目标检测等实时 Demo 验证可用性;同时于未来数月开放代码、文档与案例,推动社区共建。 整体来看,Cysic AI 的三层路径形成了一条自下而上的演进逻辑:Serverless Inference 解决“能用”,Agent Marketplace 展示“能应用”,Verifiable AI 则承担“可信性与护城河”。前两者更多是过渡与试验,真正的价值和差异化将在 Verifiable AI 的落地中体现,其与 ZK 硬件及去中心化算力网络结合,才是 Cysic 未来在 ComputeFi 生态中建立长期优势的关键。 五、金融化视角:NFT 化算力入口与ComputeFi 节点 Cysic Network 通过 “Digital Compute Cube” Node NFT 将 GPU、ASIC 等高性能算力资产代币化,打造面向大众用户的 ComputeFi 入口。每枚 NFT 即是网络节点许可(verifiable license),同时承载 收益权 + 治理权 + 参与权:用户无需自建硬件,即可代理或委托参与 ZK 证明、AI 推理与挖矿任务,并直接获得 $CYS 激励。 NFT 总量为 29,000 枚,累计分配约 1,645 万 CYS(占总供应 1.65%,在社区分配上限 9% 内)。解锁方式为 50% TGE 即时解锁 + 50% 六个月线性释放。除固定分配外,NFT 持有者还享有 Multiplier 火力加速(最高 1.2x)、优先算力任务权、治理权重等额外权益。目前公开销售已经结束,用户可在 OKX NFT Marketplace 进行交易。 与传统云算力租赁不同,Compute Cube 本质上是对底层硬件基础设施的 链上所有权确权: 固定 Token 收益:每枚 NFT 锁定一定比例 $CYS 分配;实时算力收益:节点接入实际工作负载(ZK 证明、AI 推理、加密挖矿),收益直接分发至持有者钱包;治理与优先权:持有者在算力调度、协议升级中拥有治理权重与优先使用权;正向循环效应:更多任务 → 更多奖励 → 更多质押 → 更强治理影响力。 整体上,Node NFT首次将零散 GPU/ASIC 转化为可流通的链上资产,在 AI 与 ZK 需求并行爆发的背景下,开辟了全新的 算力投资市场。ComputeFi 的循环效应(更多任务 → 更多奖励 → 更强治理权)是成为 Cysic 扩展算力网络至大众用户的重要桥梁。 六、消费场景:家庭 ASIC 矿机 (Doge & Cysic) Dogecoin 诞生于 2013 年,采用 Scrypt PoW,并自 2014 年起与 Litecoin 合并挖矿(AuxPoW),通过共享算力提升网络安全。其代币机制为无限供应 + 每年固定增发 50 亿 DOGE,更偏向社区文化与支付属性。在完全 ASIC 化的 PoW 矿币中,Dogecoin 是除比特币外热度最高的代表,其 Meme 文化与社群效应形成了长期生态粘性。 硬件层面,Scrypt ASIC 已全面取代 GPU/CPU,Bitmain Antminer L7/L9 等工业级矿机占据主流。但不同于比特币已彻底矿场化,Dogecoin 仍保留家庭矿机空间,Goldshell MiniDoge、Fluminer L1、ElphaPex DG Home 1 等轻量产品使其兼具现金流与社群驱动特征。 对 Cysic 而言,切入 Dogecoin ASIC 具备三重意义:其一,Scrypt ASIC 难度低于 ZK ASIC,可快速验证量产与交付能力;其二,挖矿市场现金流成熟,可提供稳定营收;其三,Doge ASIC 有助于积累供应链与品牌经验,为未来 ZK/AI 专用芯片奠定基础。总体来看,家庭 ASIC 矿机是 Cysic 的务实落点,同时为长期布局 ZK/AI ASIC 提供过渡支撑。 Cysic Portable Dogecoin Miner:家庭级创新路径 Cysic 于 Token2049 期间正式发布 DogeBox 1,这是一款面向家庭与社区用户的 便携式 Scrypt ASIC 矿机,定位为“可验证的家庭级算力终端”: 便携节能:口袋大小,适合家庭与社区用户,降低参与门槛;即插即用:手机 App 管理,面向全球零售市场;双重功能:既可挖矿 DOGE,又能验证 DogeOS 的 ZK 证明,实现 L1+L2 安全;激励循环:DOGE 挖矿 + CYS 补贴,形成 DOGE→CYS→DogeOS 的经济闭环。 该产品与 DogeOS(MyDoge 团队开发的基于零知识证明的 Layer-2 Rollup, Polychain Capital 领投)和 MyDoge 钱包 的协同,使 Cysic 矿机不仅能挖矿 DOGE,还能参与 ZK 验证,并通过 DOGE 奖励 + CYS 补贴 建立激励循环,增强用户黏性并融入 DogeOS 生态。 Cysic 的 Dogecoin 家庭矿机既是 务实的现金流落点,也是 长期 ZK/AI ASIC 的战略铺垫;通过“挖矿+ZK 验证”的混合模式,不仅积累市场与供应链经验,还为 Dogecoin 引入 可扩展、可验证、社区驱动的 L1+L2 新叙事。 七、Cysic生态布局与核心进展 1. 与 Succinct / Boundless Prover Network的合作 Cysic 已作为多节点 Prover 接入 Succinct Network,依托高性能 GPU 集群承接 SP1 zkVM 的实时证明任务,并在优化 GPU 代码层面与团队深度协作。与此同时,Cysic 也已加入 Boundless Mainnet Beta,为其 Proof Marketplace 提供硬件加速能力。 2. 早期合作项目(Scroll) 在早期阶段,Cysic 曾为 Scroll 提供高性能 ZK 计算,依托 GPU 集群为其承接大规模 Proving 任务,确保低延迟与低成本运行,累计生成超千万个证明。这一合作不仅验证了 Cysic 的工程实力,也为其后续在硬件加速和算力网络方向的探索奠定了基础。 3. 家庭矿机亮相 Token2049 Cysic 在 Token2049 发布其首款便携式家庭 ASIC 矿机 DogeBox 1,正式切入 Dogecoin/Scrypt 算力市场。该设备定位为“掌上级算力终端”。DogeBox 1 具备 轻量、低功耗、即插即用 特征,仅 55 W 功耗、125 MH/s 算力,机身仅 100×100×35 mm,支持 Wi-Fi 与蓝牙连接,噪音低于 35 dB,适合家庭与社区用户使用。 除 DOGE/LTC 挖矿外,设备还支持 DogeOS ZK 验证,实现 L1+L2 双层安全,并通过 DOGE 挖矿 + CYS 补贴 构建「DOGE → CYS → DogeOS」的三重激励循环。 4. 测试网收官,主网在即 Cysic 于 2025 年 9 月 18 日完成 Phase III: Ignition,标志测试网阶段正式结束并进入主网筹备期。继 Phase I 验证硬件与代币模型、Phase II 扩展 Genesis Node 规模后,本阶段全面验证了算力网络的用户参与度、激励机制与资产化逻辑。 Cysic 已在测试网阶段接入 Succinct、Aleo、Scroll 与 Boundless 等零知识项目,官网数据显示,测试网期间共汇聚 55,000+ 钱包地址、800万笔交易 与 100,000+ 预留高端 GPU 设备。Phase III:Ignition 测试网共吸引 136 万注册用户,累计处理 约 1,300 万笔交易,形成由 约 22.3 万 Verifiers 与 4.18 万 Provers 构成的 26 万+ 节点网络。激励层面,累计分发 约 146 万枚代币(73.3 万 $CYS + 73.3 万 $CGT) 与 460 万 FIRE,共有 48,000+ 用户参与质押,验证了其激励机制与算力网络的可持续性。 此外,从官网的生态地图来看,Cysic 已经与 ZK 与 AI 领域的核心项目形成了广泛连接,展现出其作为底层算力和硬件加速提供方的广泛兼容性和开放性。这些生态链接为未来在 ZK、AI 与 ComputeFi 路线的拓展提供了良好的外部接口与合作基础。 zkEVM 与 L2:zkSync、Scroll、Manta、Nil、KakarotzkVM / Prover Network:Succinct、Risc0、Nexus、Axiomzk Coprocessor:Herodotus、Axiom基础设施 / 跨链:zkCloud、ZKM、Polyhedra、Brevis身份与隐私:zkPass、Human.tech预言机:Chainlink、BlocksenseAI 生态:Talus、Modulus Labs、Gensyn、Aspecta、Inference Labs 八、Cysic代币经济模型设计 Cysic Network 采用 双代币体系:网络代币 $CYS 与治理代币 $CGT。 $CYS(网络代币):为原生可转让资产,用于支付交易费用、节点抵押、区块奖励及网络激励,确保网络活跃度与经济安全。$CYS 也是计算提供者与验证者的主要激励来源。用户可通过质押 $CYS 获取治理权重,并参与算力池(Computing Pool)的资源分配与治理决策。$CGT(治理代币):为不可转让资产,仅能通过抵押 $CYS 以 1:1 比例获得,并在解押周期更长的机制下参与 Computing Governance (CG)。$CGT 反映算力贡献与长期参与度,计算提供者需预留一定数量的 $CGT 作为准入保证金,以防止恶意行为。 在网络运行中,计算提供者将算力接入 Cysic Network,为 ZK、AI 与加密挖矿等任务提供服务。其收益来源包括区块奖励、外部项目激励及算力治理分配。算力的调度与奖励分布将根据多维因素动态调整,其中 外部项目激励(如 ZK、AI、Mining 奖励) 是关键权重。 九、团队背景及项目融资 Cysic 联合创始人兼首席执行官为Xiong (Leo) Fan,他曾任美国罗格斯大学计算机科学系助理教授。在此之前,他先后担任 Algorand 研究员、马里兰大学博士后研究员,并在康奈尔大学获得博士学位。Leo Fan 的研究长期聚焦于密码学及其在形式化验证与硬件加速中的交叉方向,已在 IEEE S&P、ACM CCS、POPL、Eurocrypt、Asiacrypt 等国际顶级会议和期刊发表多篇论文,涵盖同态加密、格密码、功能加密、协议验证等领域。他曾参与多个学术与行业项目,兼具理论研究与系统实现经验,并在国际密码学学术会议中担任程序委员会成员。 根据LinkedIn的公开信息,Cysic 团队由硬件加速、加密研究与区块链应用背景的成员组成,核心成员具备芯片设计与系统优化的产业经验,同时拥有欧美及亚洲顶尖高校的学术训练。团队在 硬件研发、零知识证明优化及运营拓展 等方向形成互补。 在融资方面,2024 年 5 月,Cysic 宣布完成 1200 万美元 Pre-A 轮融资,由 HashKey Capital 与 OKX Ventures 联合领投,参投方包括 Polychain、IDG、Matrix Partners、SNZ、ABCDE、Bit Digital、Coinswitch、Web3.com Ventures,以及 Celestia/Arbitrum/Avax 早期投资人 George Lambeth 与 Eternis 联合创始人 Ken Li 等知名天使。 十、ZK硬件加速市场竞品分析  1. 直接竞品(硬件加速型) 在硬件加速型 Prover 与 ComputeFi 赛道,Cysic 的核心对手包括 Ingonyama、Irreducible(前 Ulvetanna)、Fabric Cryptography、Supernational,均围绕“加速 ZK Proving 的硬件与网络”展开。 Cysic:全栈化(GPU+ASIC+网络),主打 ComputeFi 叙事,优势在算力资产化与金融化,但ComputeFi 模式尚需市场教育,同时硬件量产也具备一定挑战。Irreducible:学术与工程结合,探索新代数结构(Binius)与 zkASIC,理论创新强,但其商业化落地节奏可能受制于 FPGA 规模化经济性。Ingonyama:开源友好,ICICLE SDK 已成为 GPU ZK 加速事实标准,生态采用率高,但缺乏自研硬件。Fabric:定位为“软硬一体”路径,试图打造通用加密计算芯片(VPU),商业模式类似“CUDA + NVIDIA”,谋求更广泛的加密计算市场。 2. 间接竞品(ZK Marketplace / Prover Network / zk Coprocessor) 在 ZK Marketplace、Prover Network 与 zk Coprocessor 赛道,Cysic 当前更多扮演 上游算力供应商 的角色,而 Succinct、Boundless、Risc0、Axiom 等项目则通过 zkVM、任务调度和开放市场撮合切入同一客户群(L2、zkRollup、ZKML)。 短期来看,Cysic 与这些项目以协作为主:Succinct 负责任务路由,Cysic 提供高性能 Prover 节点;zk Coprocessor 则可能分流部分任务至 Cysic。 但长期若 Boundless 与 Succinct 的 Marketplace 模式(竞拍 vs 路由)继续壮大,而 Cysic 自建 Marketplace,则三方将在 客户入口层 不可避免地产生直接冲突。类似地,zk Coprocessor 若形成闭环,可能成为客户入口替代硬件直连,Cysic 有被边缘化为“代工厂”的风险。 十一、总结:商业逻辑、工程实现及潜在风险 商业逻辑 Cysic 以 ComputeFi 为核心叙事,试图将算力从硬件生产、网络调度到金融化资产打通。短期依托 GPU 集群满足现有 ZK Prover 需求并形成营收;中期通过 Dogecoin 家庭 ASIC 矿机进入现金流成熟市场,验证量产能力并借助社群文化打开消费级硬件入口;长期目标是自研 ZK/AI 专用 ASIC,叠加 Node NFT 与 Compute Cube,实现算力资产化与市场化,构筑基础设施型护城河。 工程实现 在硬件层面,Cysic 已完成 GPU 加速 Prover/Verifier 优化(MSM、FFT 并行化),并公布 ASIC 研发成果(1.3M Keccak/s 原型实验)。在网络层面,构建基于 Cosmos SDK 的验证链,支持 Prover 节点记账与任务分发,并以 Compute Cube/Node NFT 实现算力代币化。AI 方向上,推出 Verifiable AI 框架,通过 GPU 并行优化 Sumcheck 与有限域运算,实现可信推理,但与行业同类产品相比差异化有限。 潜在风险 市场教育与需求不确定性:ComputeFi 模式尚属新概念,客户是否愿意通过 NFT/代币形式投资算力尚需市场验证。ZK 业务需求不足:ZK Prover 行业仍处早期,现阶段 GPU 已能满足大部分需求,难以支撑 ASIC 的大规模出货,营收贡献有限。ASIC 工程与量产风险:证明系统尚未完全标准化,ASIC 研发需 12–18 个月,叠加高额流片成本与量产良率不确定性,可能冲击商业化进度。Doge 家庭矿机产能瓶颈:家庭场景整体市场容量有限,电价与社群驱动导致更多是“兴趣型”消费,难以形成稳定规模化收入。AI 业务差异性不足:Cysic 的 Verifiable AI 虽展示 GPU 并行优化,但其云端推理服务差异化有限,Agent Marketplace 门槛较低,整体壁垒仍不突出。竞争格局动态:长期则可能与 Succinct、Boundless 等 zkMarketplace 或 zkCoprocessor 项目在客户入口层发生冲突,被动退居“上游代工”角色。 免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

Cysic研报:ZK 硬件加速的ComputeFi之路

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao
零知识证明(ZK)作为新一代加密与扩容基础设施,已在区块链扩容、隐私计算以及zkML、跨链验证等新兴应用中展现出广阔潜力。然而,其证明生成过程计算量巨大、延迟高昂,成为产业化落地的最大瓶颈。ZK 硬件加速正是在此背景下崛起的核心环节,在 ZK 硬件加速路径上,GPU 以通用性和迭代速度见长,ASIC 追求极致能效与规模化性能,而 FPGA 则作为中间形态,兼具灵活可编程性与较高能效,三者共同构成推动零知识证明落地的硬件基础。
一、ZK 硬件加速的行业格局
GPU、FPGA 和 ASIC 构成了硬件加速的三大主流方案:GPU 以通用并行架构和成熟生态在 AI、ZK 等领域广泛应用;FPGA 依靠可重构特性适合算法快速迭代和低延迟场景;ASIC 则通过专用电路实现极致性能与能效,是规模化和长期基础设施的最终形态。
GPU (Graphics Processing Unit): 通用并行处理器,最初为图形渲染优化,现在广泛用于 AI、ZK与科学计算。FPGA (Field Programmable Gate Array): 可编程硬件电路,逻辑门级别“像乐高一样”可以反复配置,介于通用处理和专用电路之间。ASIC (Application-Specific Integrated Circuit): 为特定任务定制的专用芯片,一次烧录,固定功能,性能和能效最高,但灵活性最差。
GPU市场主流:GPU 已成为 AI 与 ZK 的核心算力资源。在 AI 领域,GPU 依托并行架构与成熟生态(CUDA、PyTorch、TensorFlow),几乎不可替代,是训练与推理的长期主流。在 ZK 领域,GPU 凭借成本与可得性优势成为现阶段最佳方案,但其在大整数模运算、MSM 与 FFT/NTT 等任务上受限于存储与带宽,能效与规模化经济性不足,长期仍需更专用的硬件方案。
FPGA灵活方案:Paradigm 在 2022 年曾押注 FPGA,认为其在灵活性、效率与成本之间处于“甜蜜点”。FPGA 的确具备灵活可编程、开发周期短、硬件可复用等优势,适用于 ZK 证明算法迭代、原型验证、低延迟场景(高频交易、5G 基站)、功耗受限的边缘计算与高安全加密等任务。但在性能和规模化经济性上,FPGA 难以与 GPU、ASIC 竞争。其战略定位更接近“算法未定型时的验证与迭代平台”,以及少数细分行业中的长期刚需。
ASIC终局形态:ASIC 在加密货币挖矿中已高度成熟(比特币SHA-256、莱特币/狗狗币Scryp),通过将算法固化到电路中,ASIC 实现数量级的性能与能效优势成为矿业唯一主导。ASIC在 ZK 证明(如Cysic)与 AI 推理(如 Google TPU、寒武纪)中同样展现巨大潜力。但在 ZK 证明中,由于算法和算子尚未完全标准化,大规模需求仍在酝酿。未来一旦标准固化,ASIC 有望凭借 10–100 倍的性能与能效优势,以及量产后的低边际成本,像矿业 ASIC 一样重塑 ZK 的算力基建。在 AI 领域,由于算法迭代频繁、训练高度依赖矩阵并行,GPU 将继续占据训练主流,但 ASIC 在固定任务和规模化推理中将具备不可替代的价值。


在 ZK 硬件加速的演进路径中,GPU 目前是最优解,兼顾成本、可得性与开发效率,适合快速上线与迭代;FPGA 更像“专项工具”,在超低时延、小批量互联和原型验证中具备价值,但难与 GPU 的经济性抗衡;长期来看,随着 ZK标准趋于稳定,ASIC 将凭借极致的性能/成本与能效优势成为行业主力。整体路径为:短期依赖 GPU 抢占市场与营收,中期以 FPGA 做验证和互联优化,长期押注 ASIC 构筑算力护城河。
二、硬件视角:ZK 加速的底层技术壁垒
Cysic 的核心优势在于 零知识证明(ZK)的硬件加速。在代表性论文 《ZK Hardware Acceleration: The Past, the Present and the Future》 中,团队指出 GPU 具备灵活性和成本效率,而 ASIC 在能效和极致性能上更胜一筹,但需权衡开发成本与可编程性。Cysic 走 ASIC 创新 + GPU 加速 双线并进的路线,从定制芯片到通用 SDK,推动 ZK 从“可验证”走向“实时可用”。
1. ASIC 路线:Cysic C1 芯片与专用设备
Cysic 自研的 C1 芯片 基于 zkVM 架构,具备高带宽与灵活可编程性。基于此Cysic 规划推出ZK Air(便携式)与ZK Pro(高性能)两款硬件产品
ZK Air:便携式加速器,体积类似 iPad 充电器,即插即用,面向轻量级验证与开发;ZK Pro:高性能系统,结合 C1 芯片与前端加速模块,定位于大规模 zkRollup、zkML 等场景。
Cysic 的研究成果直接支撑其 ASIC 路线。团队提出 Hypercube IR 作为 ZK 专用中间表示,将证明电路抽象为规则化并行模式,降低跨硬件迁移门槛,并在电路逻辑中显式保留模运算与访存模式,便于硬件识别与优化;在 Million Keccak/s 实验中,自研 C1 芯片单片实现约 1.31M 次 Keccak 证明/秒(约 13× 加速),展示了专用硬件在能效与吞吐上的潜力;在 Hyperplonk 硬件分析 中,则指出 MSM/MLE 更易并行化,而 Sumcheck 仍是瓶颈。整体来看,Cysic 正在编译抽象、硬件验证和协议适配三方面形成完整方法论,为产品化奠定基础。
2. GPU 路线:通用 SDK + ZKPoG 端到端栈
在 GPU 方向,Cysic 同时推进 通用加速 SDK 与 ZKPoG 全流程优化栈:
通用 GPU SDK:基于自研 CUDA 框架,兼容 Plonky2、Halo2、Gnark、Rapidsnark 等后端,性能超越开源方案,支持多型号 GPU,强调 兼容性与易用性。ZKPoG(Zero-Knowledge Proof on GPU):与清华大学合作研发的端到端 GPU 栈,首次实现从 witness 生成到多项式计算的全流程优化。在消费级 GPU 上最高提速 52×(平均 22.8×),并扩展电路规模 1.6 倍,已在 SHA256、ECDSA、MVM 等应用中验证。

Cysic 的核心竞争力在于 软硬件一体化设计(Hardware–Software Co-Design)。团队自研的 ZK ASIC、GPU 集群与便携矿机 共同构成算力供给的全栈体系,实现从芯片层到协议层的深度协同。Cysic 通过 “ASIC 的极致能效与规模化” 与 “GPU 的灵活性与快速迭代” 的互补格局,在高强度零知识证明场景中确立了领先的 ZKP 硬件供应商地位,并以此为基础,持续推进 ZK 硬件金融化(ComputeFi) 的产业路径。
三、协议视角Cysic Network:PoC 共识下的通用 Proof Layer
Cysic 团队于 2025 年 9 月 24 日发布《Cysic Network Whitepaper》。项目以 ComputeFi 为核心,将 GPU、ASIC 与矿机金融化为可编程、可验证、可交易的算力资产,基于 Cosmos CDK + Proof-of-Compute (PoC) 与 EVM 执行层构建去中心化“任务撮合 + 多重验证”市场,统一支持 ZK 证明、AI 推理、挖矿与 HPC。依托自研 ZK ASIC、GPU 集群与便携矿机 的垂直整合能力,以及 CYS/CGT 双代币机制,Cysic 旨在释放真实算力流动性,补齐 Web3 基础设施中“算力”这一关键支柱。
Cysic Network 采用 自底向上的四层模块化架构,实现跨领域的灵活扩展与可验证协作:
硬件层(Hardware Layer):由 CPU、GPU、FPGA、ASIC 矿机及便携式设备组成,构成网络算力基础。共识层(Consensus Layer):基于 Cosmos CDK 构建,并采用改良版 CometBFT + Proof-of-Compute (PoC) 共识机制,将代币质押与算力质押同时纳入验证权重,确保计算与经济安全性统一。执行层(Execution Layer):负责任务调度、负载路由、桥接与投票等核心逻辑,通过 EVM 兼容智能合约 实现多域可编程计算。产品层(Product Layer):面向最终应用场景,集成 ZK 证明市场、AI 推理框架、加密挖矿与 HPC 模块,可灵活接入新型任务类型与验证方法。
作为面向全行业的 ZK Proof Layer,Cysic 提供高性能、低成本的证明生成与验证服务。网络通过 去中心化 Prover 网络 与 离链验证 + 聚合上链机制 提升效率,并以 PoC 模型 将算力贡献与质押权重结合,构建兼具安全性与激励性的计算治理体系。

ZK Proof Layer:去中心化与硬件加速
零知识证明虽能在不泄露信息的前提下验证计算,但生成过程高耗时高成本。Cysic Network 通过 Prover 去中心化 + GPU/ASIC 加速 提升效率,并以 离链验证 + 聚合上链 模式降低以太坊验证的延迟与成本。其流程为:ZK 项目通过合约发布任务 → Prover 去中心化竞争生成证明 → Verifier 多方验证 → 链上合约结算。整体上,Cysic 将硬件加速与去中心化调度结合,打造可扩展的 Proof Layer,为 ZK Rollup、ZKML 与跨链应用提供底层支撑。

节点角色:Cysic Prover 机制
Cysic 在其 ZK 网络中引入 Prover 节点,用户可直接贡献算力或购买 Digital Harvester 执行证明任务,并以 CYS 与 CGT 获取奖励。通过提升 Multiplier 倍速因子可加快任务获取速度。节点需抵押 10 CYS 作为保证金,违规将被扣留。
当前 Prover 的核心任务为 ETHProof Prover,聚焦以太坊主网的区块证明,旨在推动底层的 ZK 化与扩展性建设。整体上,Prover 承担高强度计算任务,是 Cysic 网络性能与安全的核心执行层,并为后续可信推理与 AgentFi 应用提供算力保障。
节点角色:Cysic Verifier 机制
与 Prover 相对应,Verifier 节点负责对证明结果进行轻量级验证,提升网络安全与可扩展性。用户可在 PC、服务器或 官方 Android 应用运行 Verifier,并通过 Multiplier 倍速因子提高任务处理与奖励效率。
Verifier 的参与门槛更低,仅需抵押 0.5 CYS 作为保证金,运行方式简单,可随时加入或退出。整体上,Verifier 以 低成本、轻参与的模式吸引更多用户加入,扩展了 Cysic 在移动端和大众层面的覆盖,增强网络的去中心化与可信验证能力。


截至 2025 年 10月15日,Cysic 网络已初具规模:共运行约 4.2 万 Prover 节点 与 10 万+ Verifier 节点,累计处理任务 9.1 万余个,已分配奖励约 70 万枚 $CYS/$CGT。需注意的是,节点虽数量庞大,但因准入与硬件差异,活跃度与算力贡献分布不均。目前网络已对接 3 个项目,生态仍处早期阶段,其能否进一步演化为 稳定的算力网络与 ComputeFi 基础设施,仍取决于更多实际应用与合作落地。
四、AI 视角Cysic AI:云服务、AgentFi 与可信推理
Cysic AI 的业务布局呈现“产品—应用—战略”三层:底层 Serverless Inference 提供标准化推理 API,降低模型调用门槛;中层 Agent Marketplace 探索 AI Agent 的链上闭环应用;顶层 Verifiable AI 以 ZKP+GPU 加速支撑可信推理,承载 ComputeFi 的长期愿景。
标准产品层:云端推理服务(Serverless Inference)
Cysic AI推出即开即用、按需计费的标准推理服务,用户无需自建或维护算力集群,即可通过 API 快速调用多种主流大模型,实现低门槛的智能化接入。当前支持的模型包括 Meta-Llama-3-8B-Instruct(任务与对话优化)、QwQ-32B(推理增强型)、Phi-4(轻量化指令模型)、以及 Llama-Guard-3-8B(内容安全审查),覆盖通用对话、逻辑推理、轻量部署与合规审查等多元需求。该服务在成本与效率之间取得平衡,既满足开发者快速原型搭建,也能支撑企业级应用的规模化推理,是 Cysic 构建可信 AI 基础设施的重要一环。

应用实验层:去中心化智能体市场(Agent Marketplace)
Cysic AI推出的 Agent Marketplace 提供一个去中心化的智能体应用平台,用户只需连接 Phantom 钱包并完成认证,即可调用不同的 AI Agent 并通过 Solana USDC 实现自动支付。平台目前已集成三类核心智能体:
X Trends Agent:实时解析 X 平台趋势,生成可转化为 MEME Coin 的创意概念;Logo Generator Agent:根据描述快速生成专属项目标识;Publisher Agent:一键将 MEME Coin 部署到 Solana 网络(如 Pump.fun)。

Agent Marketplace 在应用上依托 Agent Swarm Framework 提升协作效率,将多个自治智能体组合为任务协作群体(Swarm),实现分工、并行与容错;在经济上通过 Agent-to-Agent Protocol 实现链上支付与自动激励,确保安全、透明的链上结算,用户仅为成功操作付费。通过这一组合,Cysic 打造了一个涵盖 趋势分析 → 内容生成 → 链上发布 的完整闭环,展示了 AI Agent 在 链上金融化与 ComputeFi 生态 中的落地路径。

战略支柱层:可信推理的硬件加速(Verifiable AI)
“推理结果是否可信”是 AI 推理领域的核心挑战。Verifiable AI 以零知识证明(ZKP)对推理结果提供数学级担保、无需泄露输入与模型;传统 ZKML 证明生成过慢难以满足实时需求,Cysic以 GPU 硬件加速突破这一瓶颈, 针对 Verifiable AI 提出了三方面的硬件加速创新:
首先,在 Sumcheck 协议并行化 上,将庞大的多项式计算任务拆分为数万个 CUDA 线程同时执行,使证明生成速度能够随 GPU 核心数实现近乎线性提升。其次,通过 定制有限域算术内核,在寄存器、共享内存及 warp-level 并行设计上进行深度优化,大幅缓解传统 GPU 在模运算中的内存瓶颈,使 GPU始终保持高效运转。最后,Cysic 在 端到端加速栈 ZKPoG 中,覆盖 witness 生成—证明生成—验证的全链路优化,兼容 Plonky2、Halo2 等主流后端,实测最高达 CPU 的 52× 性能,并在 CNN-4M 模型上实现约 10 倍加速。
通过这一整套优化,Cysic 将可验证推理从“理论可行但过慢”真正推向“可实时落地”的阶段,显著降低了延迟与成本,使 Verifiable AI 首次具备进入实时应用场景的可能性。
Cysic 平台兼容 PyTorch 与 TensorFlow,开发者只需将模型封装进 VerifiableModule,即可在不改写代码的前提下,获得推理结果及对应加密证明。在路线图上,将逐步扩展对 CNN、Transformer、Llama、DeepSeek 等模型的支持,并发布人脸识别、目标检测等实时 Demo 验证可用性;同时于未来数月开放代码、文档与案例,推动社区共建。

整体来看,Cysic AI 的三层路径形成了一条自下而上的演进逻辑:Serverless Inference 解决“能用”,Agent Marketplace 展示“能应用”,Verifiable AI 则承担“可信性与护城河”。前两者更多是过渡与试验,真正的价值和差异化将在 Verifiable AI 的落地中体现,其与 ZK 硬件及去中心化算力网络结合,才是 Cysic 未来在 ComputeFi 生态中建立长期优势的关键。
五、金融化视角:NFT 化算力入口与ComputeFi 节点
Cysic Network 通过 “Digital Compute Cube” Node NFT 将 GPU、ASIC 等高性能算力资产代币化,打造面向大众用户的 ComputeFi 入口。每枚 NFT 即是网络节点许可(verifiable license),同时承载 收益权 + 治理权 + 参与权:用户无需自建硬件,即可代理或委托参与 ZK 证明、AI 推理与挖矿任务,并直接获得 $CYS 激励。

NFT 总量为 29,000 枚,累计分配约 1,645 万 CYS(占总供应 1.65%,在社区分配上限 9% 内)。解锁方式为 50% TGE 即时解锁 + 50% 六个月线性释放。除固定分配外,NFT 持有者还享有 Multiplier 火力加速(最高 1.2x)、优先算力任务权、治理权重等额外权益。目前公开销售已经结束,用户可在 OKX NFT Marketplace 进行交易。
与传统云算力租赁不同,Compute Cube 本质上是对底层硬件基础设施的 链上所有权确权:
固定 Token 收益:每枚 NFT 锁定一定比例 $CYS 分配;实时算力收益:节点接入实际工作负载(ZK 证明、AI 推理、加密挖矿),收益直接分发至持有者钱包;治理与优先权:持有者在算力调度、协议升级中拥有治理权重与优先使用权;正向循环效应:更多任务 → 更多奖励 → 更多质押 → 更强治理影响力。
整体上,Node NFT首次将零散 GPU/ASIC 转化为可流通的链上资产,在 AI 与 ZK 需求并行爆发的背景下,开辟了全新的 算力投资市场。ComputeFi 的循环效应(更多任务 → 更多奖励 → 更强治理权)是成为 Cysic 扩展算力网络至大众用户的重要桥梁。
六、消费场景:家庭 ASIC 矿机 (Doge & Cysic)
Dogecoin 诞生于 2013 年,采用 Scrypt PoW,并自 2014 年起与 Litecoin 合并挖矿(AuxPoW),通过共享算力提升网络安全。其代币机制为无限供应 + 每年固定增发 50 亿 DOGE,更偏向社区文化与支付属性。在完全 ASIC 化的 PoW 矿币中,Dogecoin 是除比特币外热度最高的代表,其 Meme 文化与社群效应形成了长期生态粘性。
硬件层面,Scrypt ASIC 已全面取代 GPU/CPU,Bitmain Antminer L7/L9 等工业级矿机占据主流。但不同于比特币已彻底矿场化,Dogecoin 仍保留家庭矿机空间,Goldshell MiniDoge、Fluminer L1、ElphaPex DG Home 1 等轻量产品使其兼具现金流与社群驱动特征。
对 Cysic 而言,切入 Dogecoin ASIC 具备三重意义:其一,Scrypt ASIC 难度低于 ZK ASIC,可快速验证量产与交付能力;其二,挖矿市场现金流成熟,可提供稳定营收;其三,Doge ASIC 有助于积累供应链与品牌经验,为未来 ZK/AI 专用芯片奠定基础。总体来看,家庭 ASIC 矿机是 Cysic 的务实落点,同时为长期布局 ZK/AI ASIC 提供过渡支撑。
Cysic Portable Dogecoin Miner:家庭级创新路径
Cysic 于 Token2049 期间正式发布 DogeBox 1,这是一款面向家庭与社区用户的 便携式 Scrypt ASIC 矿机,定位为“可验证的家庭级算力终端”:
便携节能:口袋大小,适合家庭与社区用户,降低参与门槛;即插即用:手机 App 管理,面向全球零售市场;双重功能:既可挖矿 DOGE,又能验证 DogeOS 的 ZK 证明,实现 L1+L2 安全;激励循环:DOGE 挖矿 + CYS 补贴,形成 DOGE→CYS→DogeOS 的经济闭环。
该产品与 DogeOS(MyDoge 团队开发的基于零知识证明的 Layer-2 Rollup, Polychain Capital 领投)和 MyDoge 钱包 的协同,使 Cysic 矿机不仅能挖矿 DOGE,还能参与 ZK 验证,并通过 DOGE 奖励 + CYS 补贴 建立激励循环,增强用户黏性并融入 DogeOS 生态。
Cysic 的 Dogecoin 家庭矿机既是 务实的现金流落点,也是 长期 ZK/AI ASIC 的战略铺垫;通过“挖矿+ZK 验证”的混合模式,不仅积累市场与供应链经验,还为 Dogecoin 引入 可扩展、可验证、社区驱动的 L1+L2 新叙事。
七、Cysic生态布局与核心进展
1. 与 Succinct / Boundless Prover Network的合作
Cysic 已作为多节点 Prover 接入 Succinct Network,依托高性能 GPU 集群承接 SP1 zkVM 的实时证明任务,并在优化 GPU 代码层面与团队深度协作。与此同时,Cysic 也已加入 Boundless Mainnet Beta,为其 Proof Marketplace 提供硬件加速能力。
2. 早期合作项目(Scroll)
在早期阶段,Cysic 曾为 Scroll 提供高性能 ZK 计算,依托 GPU 集群为其承接大规模 Proving 任务,确保低延迟与低成本运行,累计生成超千万个证明。这一合作不仅验证了 Cysic 的工程实力,也为其后续在硬件加速和算力网络方向的探索奠定了基础。
3. 家庭矿机亮相 Token2049
Cysic 在 Token2049 发布其首款便携式家庭 ASIC 矿机 DogeBox 1,正式切入 Dogecoin/Scrypt 算力市场。该设备定位为“掌上级算力终端”。DogeBox 1 具备 轻量、低功耗、即插即用 特征,仅 55 W 功耗、125 MH/s 算力,机身仅 100×100×35 mm,支持 Wi-Fi 与蓝牙连接,噪音低于 35 dB,适合家庭与社区用户使用。
除 DOGE/LTC 挖矿外,设备还支持 DogeOS ZK 验证,实现 L1+L2 双层安全,并通过 DOGE 挖矿 + CYS 补贴 构建「DOGE → CYS → DogeOS」的三重激励循环。
4. 测试网收官,主网在即
Cysic 于 2025 年 9 月 18 日完成 Phase III: Ignition,标志测试网阶段正式结束并进入主网筹备期。继 Phase I 验证硬件与代币模型、Phase II 扩展 Genesis Node 规模后,本阶段全面验证了算力网络的用户参与度、激励机制与资产化逻辑。
Cysic 已在测试网阶段接入 Succinct、Aleo、Scroll 与 Boundless 等零知识项目,官网数据显示,测试网期间共汇聚 55,000+ 钱包地址、800万笔交易 与 100,000+ 预留高端 GPU 设备。Phase III:Ignition 测试网共吸引 136 万注册用户,累计处理 约 1,300 万笔交易,形成由 约 22.3 万 Verifiers 与 4.18 万 Provers 构成的 26 万+ 节点网络。激励层面,累计分发 约 146 万枚代币(73.3 万 $CYS + 73.3 万 $CGT) 与 460 万 FIRE,共有 48,000+ 用户参与质押,验证了其激励机制与算力网络的可持续性。
此外,从官网的生态地图来看,Cysic 已经与 ZK 与 AI 领域的核心项目形成了广泛连接,展现出其作为底层算力和硬件加速提供方的广泛兼容性和开放性。这些生态链接为未来在 ZK、AI 与 ComputeFi 路线的拓展提供了良好的外部接口与合作基础。
zkEVM 与 L2:zkSync、Scroll、Manta、Nil、KakarotzkVM / Prover Network:Succinct、Risc0、Nexus、Axiomzk Coprocessor:Herodotus、Axiom基础设施 / 跨链:zkCloud、ZKM、Polyhedra、Brevis身份与隐私:zkPass、Human.tech预言机:Chainlink、BlocksenseAI 生态:Talus、Modulus Labs、Gensyn、Aspecta、Inference Labs
八、Cysic代币经济模型设计

Cysic Network 采用 双代币体系:网络代币 $CYS 与治理代币 $CGT。

$CYS(网络代币):为原生可转让资产,用于支付交易费用、节点抵押、区块奖励及网络激励,确保网络活跃度与经济安全。$CYS 也是计算提供者与验证者的主要激励来源。用户可通过质押 $CYS 获取治理权重,并参与算力池(Computing Pool)的资源分配与治理决策。$CGT(治理代币):为不可转让资产,仅能通过抵押 $CYS 以 1:1 比例获得,并在解押周期更长的机制下参与 Computing Governance (CG)。$CGT 反映算力贡献与长期参与度,计算提供者需预留一定数量的 $CGT 作为准入保证金,以防止恶意行为。
在网络运行中,计算提供者将算力接入 Cysic Network,为 ZK、AI 与加密挖矿等任务提供服务。其收益来源包括区块奖励、外部项目激励及算力治理分配。算力的调度与奖励分布将根据多维因素动态调整,其中 外部项目激励(如 ZK、AI、Mining 奖励) 是关键权重。
九、团队背景及项目融资
Cysic 联合创始人兼首席执行官为Xiong (Leo) Fan,他曾任美国罗格斯大学计算机科学系助理教授。在此之前,他先后担任 Algorand 研究员、马里兰大学博士后研究员,并在康奈尔大学获得博士学位。Leo Fan 的研究长期聚焦于密码学及其在形式化验证与硬件加速中的交叉方向,已在 IEEE S&P、ACM CCS、POPL、Eurocrypt、Asiacrypt 等国际顶级会议和期刊发表多篇论文,涵盖同态加密、格密码、功能加密、协议验证等领域。他曾参与多个学术与行业项目,兼具理论研究与系统实现经验,并在国际密码学学术会议中担任程序委员会成员。
根据LinkedIn的公开信息,Cysic 团队由硬件加速、加密研究与区块链应用背景的成员组成,核心成员具备芯片设计与系统优化的产业经验,同时拥有欧美及亚洲顶尖高校的学术训练。团队在 硬件研发、零知识证明优化及运营拓展 等方向形成互补。

在融资方面,2024 年 5 月,Cysic 宣布完成 1200 万美元 Pre-A 轮融资,由 HashKey Capital 与 OKX Ventures 联合领投,参投方包括 Polychain、IDG、Matrix Partners、SNZ、ABCDE、Bit Digital、Coinswitch、Web3.com Ventures,以及 Celestia/Arbitrum/Avax 早期投资人 George Lambeth 与 Eternis 联合创始人 Ken Li 等知名天使。
十、ZK硬件加速市场竞品分析
 1. 直接竞品(硬件加速型)
在硬件加速型 Prover 与 ComputeFi 赛道,Cysic 的核心对手包括 Ingonyama、Irreducible(前 Ulvetanna)、Fabric Cryptography、Supernational,均围绕“加速 ZK Proving 的硬件与网络”展开。
Cysic:全栈化(GPU+ASIC+网络),主打 ComputeFi 叙事,优势在算力资产化与金融化,但ComputeFi 模式尚需市场教育,同时硬件量产也具备一定挑战。Irreducible:学术与工程结合,探索新代数结构(Binius)与 zkASIC,理论创新强,但其商业化落地节奏可能受制于 FPGA 规模化经济性。Ingonyama:开源友好,ICICLE SDK 已成为 GPU ZK 加速事实标准,生态采用率高,但缺乏自研硬件。Fabric:定位为“软硬一体”路径,试图打造通用加密计算芯片(VPU),商业模式类似“CUDA + NVIDIA”,谋求更广泛的加密计算市场。

2. 间接竞品(ZK Marketplace / Prover Network / zk Coprocessor)

在 ZK Marketplace、Prover Network 与 zk Coprocessor 赛道,Cysic 当前更多扮演 上游算力供应商 的角色,而 Succinct、Boundless、Risc0、Axiom 等项目则通过 zkVM、任务调度和开放市场撮合切入同一客户群(L2、zkRollup、ZKML)。
短期来看,Cysic 与这些项目以协作为主:Succinct 负责任务路由,Cysic 提供高性能 Prover 节点;zk Coprocessor 则可能分流部分任务至 Cysic。 但长期若 Boundless 与 Succinct 的 Marketplace 模式(竞拍 vs 路由)继续壮大,而 Cysic 自建 Marketplace,则三方将在 客户入口层 不可避免地产生直接冲突。类似地,zk Coprocessor 若形成闭环,可能成为客户入口替代硬件直连,Cysic 有被边缘化为“代工厂”的风险。


十一、总结:商业逻辑、工程实现及潜在风险
商业逻辑
Cysic 以 ComputeFi 为核心叙事,试图将算力从硬件生产、网络调度到金融化资产打通。短期依托 GPU 集群满足现有 ZK Prover 需求并形成营收;中期通过 Dogecoin 家庭 ASIC 矿机进入现金流成熟市场,验证量产能力并借助社群文化打开消费级硬件入口;长期目标是自研 ZK/AI 专用 ASIC,叠加 Node NFT 与 Compute Cube,实现算力资产化与市场化,构筑基础设施型护城河。
工程实现
在硬件层面,Cysic 已完成 GPU 加速 Prover/Verifier 优化(MSM、FFT 并行化),并公布 ASIC 研发成果(1.3M Keccak/s 原型实验)。在网络层面,构建基于 Cosmos SDK 的验证链,支持 Prover 节点记账与任务分发,并以 Compute Cube/Node NFT 实现算力代币化。AI 方向上,推出 Verifiable AI 框架,通过 GPU 并行优化 Sumcheck 与有限域运算,实现可信推理,但与行业同类产品相比差异化有限。
潜在风险
市场教育与需求不确定性:ComputeFi 模式尚属新概念,客户是否愿意通过 NFT/代币形式投资算力尚需市场验证。ZK 业务需求不足:ZK Prover 行业仍处早期,现阶段 GPU 已能满足大部分需求,难以支撑 ASIC 的大规模出货,营收贡献有限。ASIC 工程与量产风险:证明系统尚未完全标准化,ASIC 研发需 12–18 个月,叠加高额流片成本与量产良率不确定性,可能冲击商业化进度。Doge 家庭矿机产能瓶颈:家庭场景整体市场容量有限,电价与社群驱动导致更多是“兴趣型”消费,难以形成稳定规模化收入。AI 业务差异性不足:Cysic 的 Verifiable AI 虽展示 GPU 并行优化,但其云端推理服务差异化有限,Agent Marketplace 门槛较低,整体壁垒仍不突出。竞争格局动态:长期则可能与 Succinct、Boundless 等 zkMarketplace 或 zkCoprocessor 项目在客户入口层发生冲突,被动退居“上游代工”角色。

免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
查看原文
GAIB研究报告:AI基础设施的链上金融化——RWAiFi作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 随着AI成为增长最快的技术浪潮,计算能力被视为一种新的“货币”,GPU转变为战略资产。然而,融资和流动性仍然有限,而加密金融需要真正的现金流支持的资产。RWA代币化正作为桥梁出现。AI基础设施,结合高价值硬件和可预测的现金流,被视为非标准RWA的最佳切入点——GPU提供了近期的实用性,而机器人则代表了更长远的前沿。GAIB的RWAiFi(RWA + AI + DeFi)引入了一条新的链上金融化路径,推动AI基础设施(GPU和机器人)× RWA × DeFi的飞轮。

GAIB研究报告:AI基础设施的链上金融化——RWAiFi

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao
随着AI成为增长最快的技术浪潮,计算能力被视为一种新的“货币”,GPU转变为战略资产。然而,融资和流动性仍然有限,而加密金融需要真正的现金流支持的资产。RWA代币化正作为桥梁出现。AI基础设施,结合高价值硬件和可预测的现金流,被视为非标准RWA的最佳切入点——GPU提供了近期的实用性,而机器人则代表了更长远的前沿。GAIB的RWAiFi(RWA + AI + DeFi)引入了一条新的链上金融化路径,推动AI基础设施(GPU和机器人)× RWA × DeFi的飞轮。
GAIB研报:AI 基建的链上金融化之路 - RWAiFi作者:0xjacobzhao | https://linktr.ee/0xjacobzhao 随着 AI 成为全球增长最快的技术浪潮,算力正被视为新的“货币”,GPU 等高性能硬件也逐渐演化为战略性资产。但长期以来这类资产的融资与流动性受限。与此同时,加密金融亟需接入具备真实现金流的优质资产,RWA(Real-World Assets)链上化正在成为连接传统金融与加密市场的关键桥梁。AI 基础设施资产凭借“高价值硬件 + 可预测现金流”的特性,被普遍视为非标资产 RWA 的最佳突破口,其中 GPU 具备最现实的落地潜力,而机器人则代表更长期的探索方向。在这一背景下,GAIB 提出的 RWAiFi(RWA + AI + DeFi)路径,为“AI 基建的链上金融化之路”提供了全新解法,推动“AI基建 (算力与机器人) x RWA x DeFi”的飞轮效应。 一、AI 资产RWA化的展望 在 RWA 化的讨论中,市场普遍认为 美债、美股、黄金等标准资产 将长期占据核心地位。这类资产流动性深、估值透明、合规路径明确,是链上“无风险利率”的天然载体。 相比之下,非标资产 RWA 化 面临更大不确定性。碳信用、私募信贷、供应链金融、房地产及基础设施虽具备庞大市场规模,但普遍存在估值不透明、执行难度大、周期过长和政策依赖性强等问题。其真正挑战不在于代币化本身,而在于如何有效约束链下资产的执行力,尤其是违约后的处置与回收,仍需依赖尽调、贷后管理和清算环节。 尽管如此,RWA 化依然具有积极意义:(1)链上合约与资产池数据公开透明,避免“资金池黑箱”;(2)收益结构更为多元,除利息外,还可通过 Pendle PT/YT、代币激励及二级市场流动性实现叠加收益;(3)投资人通常通过 SPC 结构持有证券化份额,而非直接债权,从而具备一定破产隔离效果。 在 AI 算力资产中,GPU等算力硬件 因具备残值明确、标准化程度高以及需求旺盛,被普遍视为 RWA 化的首要切入点。围绕算力层,还可以进一步延伸至 算力租赁合同(Compute Lease),其现金流模式具备合同化与可预测性,适合证券化。 在算力资产之后,机器人硬件与服务合同 同样具备 RWA 化潜力。人形或专用机器人作为高价值设备,可通过融资租赁合同映射至链上;但机器人资产高度依赖运营与维护,其落地难度显著比GPU更高。 此外,数据中心与能源合同 也是值得关注的方向。前者包括机柜租赁、电力与带宽合同,属于相对稳定的基础设施现金流;后者则以绿色能源 PPA 为代表,不仅提供长期收益,还兼具 ESG 属性,符合机构投资者需求。 总体而言,AI 资产的 RWA 化可以分为几个层次:短期以内以 GPU 等算力硬件与算力合同为核心;中期则扩展至数据中心与能源合同;而长期来看,机器人硬件与服务合同有望在特定场景中实现突破。其共同逻辑均围绕 高价值硬件 + 可预测现金流,但落地路径存在差异。 AI 资产 RWA 化的潜在方向 二、GPU资产RWA化的优先价值 在众多非标AI资产当中,GPU 或许是相对更具探索价值的方向之一: 标准化与残值明确:主流 GPU 型号具备清晰的市场定价,且残值较为明确。二手市场活跃:具备再流通性,违约时仍可实现部分回收;真实生产力属性:GPU 与AI产业需求直接挂钩,具有现金流生成能力。叙事契合度高:结合 AI 与 DeFi 的双重市场热点,易于获得投资者关注。 由于 AI 算力数据中心属于极为新兴的行业,传统银行往往难以理解其运营模式,因此无法提供贷款支持。只有像 CoreWeave、Crusoe 这类大型企业,才能从 Apollo 等大型私募信贷机构获得融资,而中小型企业则被排除在外,服务于中小企业的融资通道迫在眉睫。 需要指出的是,GPU RWA 并不能消除信用风险。资质优良的企业通常可通过银行以更低成本融资,不一定需要上链;而选择代币化融资的多为中小企业,违约风险更高。这也导致了 RWA 的结构性悖论:优质资产方不需要上链,而风险更高的借款人更倾向参与。 尽管如此,相较传统融资租赁,GPU 的 高需求、可回收性和残值明确 使其风险收益特征更具优势。RWA 化的意义并非消灭风险,而是让风险更加透明、可定价与可流动化。GPU 作为非标资产 RWA 的代表,具备产业价值与探索潜力,但其成败最终仍取决于链下资质审查与执行能力,而非单纯的链上设计。 三、机器人资产RWA化的前沿探索 在 AI 硬件之外,机器人产业也正逐步进入 RWA 化的视野。预计到 2030 年,市场规模将突破 1,850 亿美元,发展潜力巨大。随着 工业 4.0 的到来,智能自动化与人机协作的新时代正加速到来,未来几年内,机器人将在工厂、物流、零售乃至家庭等场景中广泛落地。通过结构化的链上融资机制,加速智能机器人的部署与普及,同时为普通用户创造可参与这一产业变革的投资入口。其可行路径主要包括: 机器人硬件融资:为生产与部署提供资金,回报来自租赁、销售或 Robot-as-a-Service(RaaS) 模式下的运营收入;现金流通过 SPC 结构与保险覆盖映射到链上,降低违约与处置风险。数据流金融化:Embodied AI 模型需要大规模真实世界数据,可为传感器部署和分布式采集网络提供资金,并将数据使用权或授权收入 Token 化,赋予投资人分享未来数据价值的渠道。生产与供应链融资:机器人产业链长,涉及零部件、产能与物流。通过贸易融资释放营运资金,并将未来的货物流与现金流映射到链上。 相较于 GPU 资产,机器人资产 更依赖运营与场景落地,现金流波动也更受利用率、维护成本和法规约束的影响。因此,建议采取 期限更短、超额抵押与储备金更高的交易结构确保稳定收益与流动性安全。 四、GAIB 协议:链下AI资产与链上DeFi 经济层 AI 资产的 RWA 化正从概念走向落地。GPU 已成为最具可行性的链上化资产,而机器人融资代表更长期的增长方向。要让这些资产真正具备金融属性,关键在于构建一个能承接链下融资、生成收益凭证并连接 DeFi 流动性的经济层。 GAIB 正是在此背景下诞生,它并非将AI硬件直接代币化,而是将企业级GPU或机器人作为抵押的融资合同上链,构建起连接链下现金流与链上资本市场的经济桥梁。在链下,由云服务商与数据中心购置并使用的企业级 GPU 集群或机器人资产作为抵押物;在链上,AID 用于稳定计价与流动性管理(非生息,T-Bills 全额储备);sAID 用于收益敞口与自动累计(底层为融资组合 + T-Bills)。 GAIB的链下融资模式 GAIB 与全球云服务商及数据中心合作,以 GPU 集群为抵押,设计三类融资协议: 债务模式:支付固定利息(年化 ~10–20%);股权模式:分享 GPU或机器人收入(年化 ~60–80%+);混合模式:利息 + 收入分成。 GAIB 的风险管理机制建立在 实体 GPU 的超额抵押与破产隔离法律结构 之上,确保在违约情况下能够通过清算 GPU 或托管至合作数据中心继续产生现金流。由于企业级 GPU 回本周期短,整体期限显著低于传统债务产品,融资期限通常为 3–36 个月。GAIB 与第三方信用承销机构、审计方和托管方合作,严格执行尽调与贷后管理,并以国债储备作为补充流动性保障。 链上机制 铸造与赎回:通过合约,合格用户(Whitelist + KYC)可用稳定币铸造 AID,或以 AID 赎回稳定币。此外对于非KYC用户亦可通过二级市场交易获得。质押与收益:用户可将 AID 质押为 sAID,后者自动累积收益,价值随时间升值。流动性池:GAIB 将在主流 AMM 部署 AID 流动性池,用户可用稳定币兑换 AID。DeFi 场景:借贷:AID 可接入借贷协议,提升资本效率;收益交易:sAID 可拆分为 PT/YT,支持多元风险收益策略;衍生品:AID 与 sAID 作为底层收益资产,支持期权、期货等衍生品创新;定制化策略:接入 Vault 与收益优化器,实现个性化资产配置。 总之, GAIB 的核心逻辑是通过 GPU+机器人资产+国债资产的融资与代币化,将链下真实现金流转化为链上可组合资产;再通过 AID/sAID 与 DeFi 协议 形成收益、流动性与衍生品市场。这一设计兼具实体资产支撑与链上金融创新,为 AI 经济与加密金融之间搭建了可扩展的桥梁。 五、链下:GPU资产代币化标准及风险管理机制 GAIB 通过 SPC(Segregated Portfolio Company) 结构,将链下 GPU 融资协议转化为链上可流通的收益凭证。投资者投入稳定币后,将获得等值的 AI 合成美元(AID),可用于参与 GAIB 生态。当投资者质押并获得质押资产 sAID 后,即可分享来自 GAIB GPU 与机器人融资项目的收益。随着底层还款流入协议,sAID 的价值持续增长,投资者最终可通过销毁代币赎回本金与收益,从而实现链上资产与真实现金流的一对一映射。 代币化标准与运作流程: GAIB 要求资产具备完善的抵押与担保机制,融资协议需包含 月度监控、逾期阈值、超额抵押合规 等条款,并限定承销方需有 ≥2 年放贷经验及完整数据披露。流程上,投资者存入稳定币 → 智能合约铸造 AID(非生息,T-Bills 储备) → 持有人质押并获得 sAID(收益型) → 质押资金用于 GPU/机器人融资协议 → SPC 还款流入 GAIB → sAID 价值随时间增长 → 投资者销毁 sAID 赎回本金与收益。 风险管理机制: 超额抵押 —— 融资池资产通常保持约 30% 的超额抵押率。现金储备 —— 约 5–7% 的资金被划入独立储备账户,用于利息支付与违约缓冲。信用保险 —— 通过与合规保险机构合作,部分转移 GPU Provider 的违约风险。违约处置 —— 若违约发生,GAIB 与承销方可选择清算 GPU、转移至其他运营商或托管继续产生现金流。SPC 的破产隔离结构确保各资产池之间独立,不受连带影响。 此外,GAIB 信用委员会负责制定 代币化标准、信用评估框架与承销准入门槛,并基于结构化风险分析框架(涵盖借款人基本面、外部环境、交易结构与回收率)实施尽调和贷后监控,确保交易的 安全性、透明度与可持续性。 结构化风险评估框架(仅供参考示例) 六、链上:AID合成美金、sAID 收益机制及Alpha存款计划 GAIB 双币模型:AID 合成美金与 sAID 流动性收益凭证 GAIB 推出的 AID(AI Synthetic Dollar) 是一种以美债储备为支撑的合成美金。其供应与协议资本动态挂钩:资金流入协议时铸造 AID,收益分配或赎回时销毁 AID,从而确保其规模与底层资产价值保持一致。AID 本身仅承担稳定计价与流通职能,并不直接产生收益。 为了获取收益,用户需要将 AID 质押转换为 sAID。sAID 作为一种可流通的收益凭证,其价值会随协议层的真实收益(GPU/机器人融资回款、美债利息等)逐步升值。收益通过 sAID/AID 的兑换比率 体现,用户无需额外操作,只需持有 sAID 即可自动累积收益。在赎回时,用户可经过冷却期取回初始本金与累计奖励。 从功能上看,AID 提供 稳定性与可组合性,可被用于交易、借贷、流动性提供;而 sAID 承载 收益属性,既可直接增值,也可进一步进入 DeFi 协议拆分为 本金与收益代币(PT/YT),满足不同风险偏好的投资者需求。 总体而言,AID 与 sAID 构成了 GAIB 经济层的核心双币结构:AID 保障稳定流通,sAID 捕捉真实收益。这种设计既保持了合成稳定币的可用性,又为用户提供了与 AI 基础设施经济挂钩的收益入口。 GAIB AID / sAID vs Ethena USDe / sUSDe vs Lido stETH 收益模式对比 AID 与 sAID 的关系,可类比 Ethena 的 USDe / sUSDe 以及 Lido 的 ETH / stETH:前者作为合成美元本身不产生收益,只有在转换为 sToken 后才能自动累积收益。不同点在于,sAID 的收益来源于 GPU 融资合同与美债,sUSDe 的收益来自 衍生品对冲,而 stETH 则依托于 ETH Staking。 AID Alpha:GAIB 主网前的流动性启动与积分激励机制 AID Alpha 于 2025 年 5 月 12 日正式上线,作为 AID 主网前的流动性启动阶段(Early Deposit Program),旨在通过早期存款引导协议资金,同时给予参与者额外奖励与游戏化激励。所有存款初期将进入美债(T-Bills)以确保安全性,随后逐步配置至 GPU 融资交易,形成从“低风险—高收益”的过渡路径。 技术层面,AID Alpha 智能合约遵循 ERC-4626 标准,用户每存入一美元稳定币或合成稳定币,都会获得对应链上的 AIDα 收据 Token(如 AIDaUSDC、AIDaUSDT),保证跨链一致性与可组合性。 在 Final Spice 阶段,GAIB 通过 AIDα 机制开放了多元化的稳定币入口,包括 USDC、USDT、USR、CUSDO 以及 USD1。用户存入稳定币后,会获得对应的 AIDα 收据 Token(如 AIDaUSDC、AIDaUSD1),该 Token 即代表存款凭证,并自动计入 Spice 积分体系,可进一步参与 Pendle、Curve 等 DeFi 组合玩法。 截至目前,AIDα 总存款规模已触及 $80M 上限,AIDα 资产池明细如下: 所有 AIDα 存款均设有不超过两个月的锁定期,活动结束后,用户可选择将 AIDα 兑换为主网 AID 并质押成 sAID享受持续收益,也可直接赎回原始资产,同时保留累积的 Spice 积分。Spice 是 GAIB 在 AID Alpha 阶段推出的积分体系,用于衡量早期参与度与分配未来治理权。其规则为“1 USD = 1 Spice/天”,并叠加多渠道倍数(如存款 10x、Pendle YT 20x、Resolv USR 30x),最高可达 30 倍,形成“收益 + 积分”的双重激励。此外,推荐机制进一步放大收益(一级 20%、二级 10%),Final Spice 结束后积分将被锁定,用于主网上线时的治理与奖励分配。 此外,GAIB 发行了 3,000 枚限量版 Fremen Essence NFT,作为早期支持者的专属凭证。前 200 名大额存款者享有保留名额,其余名额则通过白名单及 $1,500+ 存款资格分配。NFT 可 免费铸造(仅需支付 Gas 费),持有者将获得主网上线时的专属奖励、产品优先测试权及核心社区身份。目前,该 NFT 在二级市场的价格约为 0.1 ETH,累计交易量已达 98 ETH。 七、GAIB 链上资金与链下资产透明度 GAIB 在资产与协议透明度方面保持高标准,用户可通过官网、DefiLlama 与 Dune 实时追踪其链上资产类别(USDC、USDT、USR、CUSDO、USD1)、跨链分布(Ethereum、Sei、Arbitrum、Base等)、TVL趋势及明细;同时,官网还披露了链下底层资产的配置比例、在投项目(Active Deals)金额、预期收益及管道项目(Selected Pipeline)情况。 GAIB官方网站:https://aid.gaib.ai/transparencyDefillama:https://defillama.com/protocol/tvl/gaibDune:https://dune.com/gaibofficial 截至 2025 年 10 月,GAIB 管理资产总规模约 $175.29M,“双层配置”既兼顾稳健性,又带来 AI Infra 融资的超额回报。 储备资产(Reserves)占 71%,约 $124.9M,主要为美债,预期年化收益约 4%;已部署资产(Deployed)占 29%,约 $50.4M,用于链下 GPU 与机器人融资项目,平均年化收益约 15%。 链上资金分布方面,根据 Dune 最新数据,跨链分布上,Ethereum 占比 83.2%,Sei 占 13.0%,Base 与 Arbitrum 合计不足 4%。按资产结构计算,资金主要来自 USDC(52.4%)与USDT(47.4%),其余为 USD1(~2%)、USR(0.1%)、CUSDO(0.09%)。 链下资产分布方面,GAIB 在投项目与资金部署保持一致,已包括泰国 Siam.AI($30M,15% APY)、两笔 Robotics Financing(合计 $15M,15% APY)以及美国 US Neocloud Provider($5.4M,30% APY)。与此同时,GAIB 还建立了约 $725M 的项目储备,更广义的总项目储备展望为 $2.5B+ / 1–2 年,覆盖 GMI Cloud 及多地区的 Nvidia Cloud Partners(亚洲 $200M 与 $300M、欧洲 $60M、阿联酋 $80M)、北美 Neocloud Providers($15M 与 $30M),以及机器人资产提供方($20M),为后续扩张与放量奠定坚实基础。 八、生态体系:算力、机器人与 DeFi  GAIB 的生态体系由 GPU 计算资源、机器人创新企业以及 DeFi 协议集成三大部分构成,旨在形成“真实算力资产 → 金融化 → DeFi 优化”的完整闭环。 GPU 计算生态资源:算力资产上链 在 AI 基础设施的链上融资生态中,GAIB 已与多类算力服务商合作,覆盖主权级/企业级云(GMI、Siam.AI) 与 去中心化网络(Aethir、PaleBlueDot.AI),既保证算力稳定性,也拓展了 RWA 的叙事空间。 GMI Cloud:NVIDIA 全球 6 家 Reference Platform Partner 之一,运营 7 个数据中心、5 个国家,已融资约 $95M。以低延迟、AI 原生环境见长。通过 GAIB 的融资模式,其 GPU 扩张具备更强的跨区域弹性。Siam.AI:泰国首家主权级 NVIDIA Cloud Partner,在 AI/ML 与渲染场景中性能最高提升 35x、成本下降 80%。已与 GAIB 完成 $30M GPU Tokenization,为 GAIB 首单 GPU RWA 案例,奠定其在东南亚市场的先发优势。Aethir:领先的去中心化 GPUaaS 网络,规模 40,000+ GPU(含 3,000+ H100)。2025 年初与 GAIB 在 BNB Chain 联合完成 首批 GPU Tokenization 试点,10 分钟完成 $100K 融资。未来将探索 AID/sAID 与 Aethir staking 打通,形成双重收益。PaleBlueDot.AI:新兴去中心化 GPU 云,其参与强化了 GAIB 的 DePIN 叙事。 机器人生态:具身智能的链上融资 GAIB 已正式切入具身智能(Embodied AI)赛道,正将 GPU Tokenization 模式延伸至机器人产业,构建“Compute + Robotics”双引擎生态,以 SPV 抵押结构和现金流分配为核心,并通过 AID/sAID 将机器人与 GPU 收益打包,实现硬件和运营的链上金融化。目前已部署合计 1,500 万美元的机器人融资,预期年化收益率约 15%,合作伙伴包括 OpenMind、PrismaX、CAMP、Kite 及 SiamAI Robotics,覆盖硬件、数据流和供应链的多维创新。 PrismaX:PrismaX 的定位是“机器人即矿机”,通过遥操作平台连接操作员、机器人与数据需求方,生成高价值的动作与视觉数据,单价约 30–50 美元/小时,并已通过 $99/次的付费模式验证早期商业化。GAIB 为其提供融资以扩展机器人规模,数据出售收益则通过 AID/sAID 回流投资人,形成以数据采集为核心的金融化路径。OpenMind:OpenMind 则以 FABRIC 网络与 OM1 操作系统提供身份认证、可信数据共享和多模态集成,相当于行业“TCP/IP”。GAIB 将这些任务与数据合同资产化上链,为其提供资本支持。双方结合实现“技术可信性 + 金融资产化”的互补,使机器人资产从实验室阶段走向可融资、可迭代、可验证的规模化发展。 整体而言,GAIB 通过与 PrismaX 的数据网络、OpenMind 的控制系统及 CAMP 的基础设施部署协作,逐步构建覆盖机器人硬件、运营与数据价值链的完整生态,加速具身智能的产业化与金融化。 DeFi 生态:协议集成与收益优化 在 AID Alpha 阶段,GAIB 将 AID/aAID 资产与多类 DeFi 协议深度集成,通过 收益拆分、流动性挖掘、抵押借贷与收益增强 等方式,形成了跨链、多元的收益优化体系,并以 Spice 积分 作为统一激励。 Pendle:用户可将 AIDaUSDC/USDT 分拆为 PT(本金 Token)与 YT(收益 Token)。PT 提供约 15% 固定收益,YT 则承载未来收益并享有 30 倍积分加成,LP 流动性提供者可获得 20 倍积分。Equilibria 与 Penpie:作为 Pendle 的收益增强器,前者可在原有收益上额外提升 ~5%,后者最高可达 88% APR,两者均叠加 20 倍积分放大。Morpho:支持将 PT-AIDa 作为抵押物借出 USDC,赋予用户在保持仓位的同时获取流动性的能力,并拓展至以太坊主流借贷市场。Curve:AIDaUSDC/USDC 流动性池可获取交易费收益,同时获得 20 倍积分,适合偏好稳健策略的参与者。CIAN & Takara(Sei 链):用户可将 enzoBTC 抵押于 Takara 借出稳定币,再经 CIAN 智能金库自动注入 GAIB 策略,实现 BTCfi 与 AI Yield 的结合,并享有 5 倍积分加成。Wand(Story Protocol):在 Story 链上,Wand 为 AIDa 资产提供类似 Pendle 的 PT/YT 拆分结构,YT Token 可获得 20 倍积分,进一步强化了 AI Yield 的跨链组合性。 整体来看,GAIB 的 DeFi 集成策略涵盖 Ethereum、Arbitrum、 Base、Sei 与 Story Protocol、 BNB Chain和Plume Network等公链,通过 Pendle 及其生态增强器(Equilibria、Penpie)、借贷市场(Morpho)、稳定币 DEX(Curve)、BTCfi 金库(CIAN + Takara)、以及原生 AI 叙事的 Wand 协议,实现了从固定收益、杠杆收益到跨链流动性的全方位覆盖。 九、团队背景及项目融资 GAIB 团队汇聚了来自 AI、云计算与 DeFi 领域的专家,核心成员曾任职于 L2IV、火币、 高盛、Ava Labs 与 Binance Labs 等机构。团队成员毕业于康奈尔大学、宾夕法尼亚大学、南洋理工大学与加州大学洛杉矶分校,具备深厚的金融、工程与区块链基础设施经验,共同构建起连接真实世界 AI 资产与链上金融创新的坚实基础。 Kony Kwong 为 GAIB 联合创始人兼 CEO,具备传统金融与加密风投的跨界经验。曾任 L2 Iterative Ventures 投资人,并在 Huobi M&A 负责基金管理与并购,早年就职于招银国际、高盛、中信证券等机构。毕业于香港大学国际商务与金融学(一等荣誉),并获宾夕法尼亚大学计算机科学硕士学位。他认为 AI 基础设施缺乏金融化(“-fi”)环节,因此创立 GAIB,将 GPU 与机器人等真实算力资产转化为链上可投资产品。 Jun Liu 为 GAIB 联合创始人兼 CTO,兼具学术研究与产业实践背景,专注于区块链安全、加密经济学与 DeFi 基础设施。曾任 Sora Ventures 副总裁,亦在 Ava Labs 担任技术经理,支持 BD 团队并负责智能合约审计,同时在 Blizzard Fund 主导技术尽调工作。本科毕业于台湾大学计算机科学与电机工程双学位,后于康奈尔大学攻读计算机科学博士并参与 IC3 区块链研究。他的专长在于构建安全可扩展的去中心化金融架构。 Alex Yeh 为 GAIB 联合创始人及顾问,同时担任 GMI Cloud 创始人兼 CEO。GMI Cloud 是全球领先的 AI 原生云计算服务商之一,并获选为 6 家 NVIDIA Reference Platform Partner 之一。Alex 拥有半导体与 AI Cloud 背景,管理Realtek 家族办公室,并曾在 CDIB与IVC 任职。在 GAIB,他主要负责产业合作,将 GMI 的 GPU 基础设施与客户网络引入协议,推动 AI Infra 资产的金融化落地。 2024 年 12 月,GAIB 完成 500 万美元 Pre-Seed 融资,由 Hack VC、Faction、Hashed 领投,参投方包括 The Spartan Group、L2IV、CMCC Global、Animoca Brands、IVC、MH Ventures、Presto Labs、J17、IDG Blockchain、280 Capital、Aethir、NEAR Foundation 等知名机构,以及多位产业与加密领域的天使投资人。随后在 2025 年 7 月,GAIB 又获得 1,000 万美元战略投资,由 Amber Group 领投,多家亚洲投资者跟投。此次资金将重点用于 GPU 资产 Token 化,进一步推动 GAIB 基础设施完善、GPU 金融化产品扩展,并深化与 AI 和加密生态的战略合作,强化机构在链上 AI 基础设施中的参与度。 十、总结:商业逻辑及潜在风险 商业逻辑:GAIB 的核心定位是 RWAiFi,即将 AI 基础设施资产(GPU、机器人等)通过链上化的方式转化为可组合的金融产品,形成 “真实资产 → 现金流证券化 → DeFi 优化” 的闭环。其商业逻辑建立在三点: 资产端:GPU 与机器人具备“高价值硬件 + 可预测现金流”的特性,符合 RWA 化的基本要求。GPU 因标准化、残值明确与需求旺盛,成为当前最现实的切入点;机器人则代表更长期的探索方向,依托遥操作、数据采集与 RaaS 模式逐步实现现金流上链。资金端:通过 AID(稳定结算、非生息、T-Bills 储备) 与 sAID(收益型基金代币,底层为融资组合 + T-Bills) 的双层结构,GAIB 实现稳定流通与收益捕获分离。并通过 PT/YT、借贷、LP 流动性等 DeFi 集成释放收益与流动性。生态端:与 GMI、Siam.AI 等主权级 GPU 云,Aethir等去中心化网络,以及 PrismaX、OpenMind 等机器人公司合作,建立跨硬件、数据与服务的产业网络,推动“Compute + Robotics”双引擎发展。 此外GAIB 采用 SPC(Segregated Portfolio Company)结构 将链下融资协议转化为链上收益凭证。核心机制包括: 融资模式:债务(10–20% APY)、收益分成(60–80%+)、混合结构,期限短(3–36 个月),回本周期快。信用与风控:通过超额抵押(约 30%)、现金储备(5–7%)、信用保险与违约处置(GPU 清算/托管运营)保障安全性;并配合第三方承销与尽调,建立内部信用评级体系。链上机制:AID 铸造/赎回与 sAID 收益累积,结合 Pendle、Morpho、Curve、CIAN、Wand 等协议,实现跨链、多维度的收益优化。透明度:官网、DefiLlama 与 Dune 提供实时资产与资金流追踪,确保链下融资与链上资产对应关系清晰。 潜在风险:GAIB 及其相关产品(AID、sAID、AID Alpha、GPU Tokenization 等)在设计上通过链上透明化提升了收益可见性,但其底层风险依然存在,投资者需充分评估自身风险承受能力谨慎参与: 市场与流动性风险:GPU 融资收益和数字资产价格均受市场波动影响,回报并无保证;产品存在锁定期,若市场环境恶化投资者可能面临流动性不足或折价退出的风险。信用与执行风险:GPU 与机器人融资多涉及中小企业,违约概率相对更高;资产回收高度依赖链下执行力,若处置不畅,将直接影响投资人回款。技术与安全风险:智能合约漏洞、黑客攻击、预言机操纵或私钥遗失,均可能造成资产损失;与第三方 DeFi 协议(如 Pendle、Curve 等)的深度绑定,虽能提升 TVL 增长,但也引入了外部协议的安全与流动性风险。资产特性与运营风险:GPU 具备标准化和残值市场,而机器人资产非标准化程度高,运营依赖利用率与维护;跨区域扩张中,机器人资产尤其容易受到法规差异和政策不确定性影响。合规与监管风险:GAIB 投资的算力资产属于新的市场与资产类别,而并不非传统金融牌照的覆盖范围内。这可能会引发地区性监管问题,包括对其业务运营、资产发行及使用的限制。 免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

GAIB研报:AI 基建的链上金融化之路 - RWAiFi

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao
随着 AI 成为全球增长最快的技术浪潮,算力正被视为新的“货币”,GPU 等高性能硬件也逐渐演化为战略性资产。但长期以来这类资产的融资与流动性受限。与此同时,加密金融亟需接入具备真实现金流的优质资产,RWA(Real-World Assets)链上化正在成为连接传统金融与加密市场的关键桥梁。AI 基础设施资产凭借“高价值硬件 + 可预测现金流”的特性,被普遍视为非标资产 RWA 的最佳突破口,其中 GPU 具备最现实的落地潜力,而机器人则代表更长期的探索方向。在这一背景下,GAIB 提出的 RWAiFi(RWA + AI + DeFi)路径,为“AI 基建的链上金融化之路”提供了全新解法,推动“AI基建 (算力与机器人) x RWA x DeFi”的飞轮效应。
一、AI 资产RWA化的展望
在 RWA 化的讨论中,市场普遍认为 美债、美股、黄金等标准资产 将长期占据核心地位。这类资产流动性深、估值透明、合规路径明确,是链上“无风险利率”的天然载体。
相比之下,非标资产 RWA 化 面临更大不确定性。碳信用、私募信贷、供应链金融、房地产及基础设施虽具备庞大市场规模,但普遍存在估值不透明、执行难度大、周期过长和政策依赖性强等问题。其真正挑战不在于代币化本身,而在于如何有效约束链下资产的执行力,尤其是违约后的处置与回收,仍需依赖尽调、贷后管理和清算环节。
尽管如此,RWA 化依然具有积极意义:(1)链上合约与资产池数据公开透明,避免“资金池黑箱”;(2)收益结构更为多元,除利息外,还可通过 Pendle PT/YT、代币激励及二级市场流动性实现叠加收益;(3)投资人通常通过 SPC 结构持有证券化份额,而非直接债权,从而具备一定破产隔离效果。
在 AI 算力资产中,GPU等算力硬件 因具备残值明确、标准化程度高以及需求旺盛,被普遍视为 RWA 化的首要切入点。围绕算力层,还可以进一步延伸至 算力租赁合同(Compute Lease),其现金流模式具备合同化与可预测性,适合证券化。
在算力资产之后,机器人硬件与服务合同 同样具备 RWA 化潜力。人形或专用机器人作为高价值设备,可通过融资租赁合同映射至链上;但机器人资产高度依赖运营与维护,其落地难度显著比GPU更高。
此外,数据中心与能源合同 也是值得关注的方向。前者包括机柜租赁、电力与带宽合同,属于相对稳定的基础设施现金流;后者则以绿色能源 PPA 为代表,不仅提供长期收益,还兼具 ESG 属性,符合机构投资者需求。
总体而言,AI 资产的 RWA 化可以分为几个层次:短期以内以 GPU 等算力硬件与算力合同为核心;中期则扩展至数据中心与能源合同;而长期来看,机器人硬件与服务合同有望在特定场景中实现突破。其共同逻辑均围绕 高价值硬件 + 可预测现金流,但落地路径存在差异。
AI 资产 RWA 化的潜在方向

二、GPU资产RWA化的优先价值
在众多非标AI资产当中,GPU 或许是相对更具探索价值的方向之一:
标准化与残值明确:主流 GPU 型号具备清晰的市场定价,且残值较为明确。二手市场活跃:具备再流通性,违约时仍可实现部分回收;真实生产力属性:GPU 与AI产业需求直接挂钩,具有现金流生成能力。叙事契合度高:结合 AI 与 DeFi 的双重市场热点,易于获得投资者关注。
由于 AI 算力数据中心属于极为新兴的行业,传统银行往往难以理解其运营模式,因此无法提供贷款支持。只有像 CoreWeave、Crusoe 这类大型企业,才能从 Apollo 等大型私募信贷机构获得融资,而中小型企业则被排除在外,服务于中小企业的融资通道迫在眉睫。
需要指出的是,GPU RWA 并不能消除信用风险。资质优良的企业通常可通过银行以更低成本融资,不一定需要上链;而选择代币化融资的多为中小企业,违约风险更高。这也导致了 RWA 的结构性悖论:优质资产方不需要上链,而风险更高的借款人更倾向参与。
尽管如此,相较传统融资租赁,GPU 的 高需求、可回收性和残值明确 使其风险收益特征更具优势。RWA 化的意义并非消灭风险,而是让风险更加透明、可定价与可流动化。GPU 作为非标资产 RWA 的代表,具备产业价值与探索潜力,但其成败最终仍取决于链下资质审查与执行能力,而非单纯的链上设计。
三、机器人资产RWA化的前沿探索
在 AI 硬件之外,机器人产业也正逐步进入 RWA 化的视野。预计到 2030 年,市场规模将突破 1,850 亿美元,发展潜力巨大。随着 工业 4.0 的到来,智能自动化与人机协作的新时代正加速到来,未来几年内,机器人将在工厂、物流、零售乃至家庭等场景中广泛落地。通过结构化的链上融资机制,加速智能机器人的部署与普及,同时为普通用户创造可参与这一产业变革的投资入口。其可行路径主要包括:
机器人硬件融资:为生产与部署提供资金,回报来自租赁、销售或 Robot-as-a-Service(RaaS) 模式下的运营收入;现金流通过 SPC 结构与保险覆盖映射到链上,降低违约与处置风险。数据流金融化:Embodied AI 模型需要大规模真实世界数据,可为传感器部署和分布式采集网络提供资金,并将数据使用权或授权收入 Token 化,赋予投资人分享未来数据价值的渠道。生产与供应链融资:机器人产业链长,涉及零部件、产能与物流。通过贸易融资释放营运资金,并将未来的货物流与现金流映射到链上。
相较于 GPU 资产,机器人资产 更依赖运营与场景落地,现金流波动也更受利用率、维护成本和法规约束的影响。因此,建议采取 期限更短、超额抵押与储备金更高的交易结构确保稳定收益与流动性安全。
四、GAIB 协议:链下AI资产与链上DeFi 经济层
AI 资产的 RWA 化正从概念走向落地。GPU 已成为最具可行性的链上化资产,而机器人融资代表更长期的增长方向。要让这些资产真正具备金融属性,关键在于构建一个能承接链下融资、生成收益凭证并连接 DeFi 流动性的经济层。
GAIB 正是在此背景下诞生,它并非将AI硬件直接代币化,而是将企业级GPU或机器人作为抵押的融资合同上链,构建起连接链下现金流与链上资本市场的经济桥梁。在链下,由云服务商与数据中心购置并使用的企业级 GPU 集群或机器人资产作为抵押物;在链上,AID 用于稳定计价与流动性管理(非生息,T-Bills 全额储备);sAID 用于收益敞口与自动累计(底层为融资组合 + T-Bills)。

GAIB的链下融资模式
GAIB 与全球云服务商及数据中心合作,以 GPU 集群为抵押,设计三类融资协议:
债务模式:支付固定利息(年化 ~10–20%);股权模式:分享 GPU或机器人收入(年化 ~60–80%+);混合模式:利息 + 收入分成。
GAIB 的风险管理机制建立在 实体 GPU 的超额抵押与破产隔离法律结构 之上,确保在违约情况下能够通过清算 GPU 或托管至合作数据中心继续产生现金流。由于企业级 GPU 回本周期短,整体期限显著低于传统债务产品,融资期限通常为 3–36 个月。GAIB 与第三方信用承销机构、审计方和托管方合作,严格执行尽调与贷后管理,并以国债储备作为补充流动性保障。
链上机制
铸造与赎回:通过合约,合格用户(Whitelist + KYC)可用稳定币铸造 AID,或以 AID 赎回稳定币。此外对于非KYC用户亦可通过二级市场交易获得。质押与收益:用户可将 AID 质押为 sAID,后者自动累积收益,价值随时间升值。流动性池:GAIB 将在主流 AMM 部署 AID 流动性池,用户可用稳定币兑换 AID。DeFi 场景:借贷:AID 可接入借贷协议,提升资本效率;收益交易:sAID 可拆分为 PT/YT,支持多元风险收益策略;衍生品:AID 与 sAID 作为底层收益资产,支持期权、期货等衍生品创新;定制化策略:接入 Vault 与收益优化器,实现个性化资产配置。
总之, GAIB 的核心逻辑是通过 GPU+机器人资产+国债资产的融资与代币化,将链下真实现金流转化为链上可组合资产;再通过 AID/sAID 与 DeFi 协议 形成收益、流动性与衍生品市场。这一设计兼具实体资产支撑与链上金融创新,为 AI 经济与加密金融之间搭建了可扩展的桥梁。
五、链下:GPU资产代币化标准及风险管理机制
GAIB 通过 SPC(Segregated Portfolio Company) 结构,将链下 GPU 融资协议转化为链上可流通的收益凭证。投资者投入稳定币后,将获得等值的 AI 合成美元(AID),可用于参与 GAIB 生态。当投资者质押并获得质押资产 sAID 后,即可分享来自 GAIB GPU 与机器人融资项目的收益。随着底层还款流入协议,sAID 的价值持续增长,投资者最终可通过销毁代币赎回本金与收益,从而实现链上资产与真实现金流的一对一映射。
代币化标准与运作流程:
GAIB 要求资产具备完善的抵押与担保机制,融资协议需包含 月度监控、逾期阈值、超额抵押合规 等条款,并限定承销方需有 ≥2 年放贷经验及完整数据披露。流程上,投资者存入稳定币 → 智能合约铸造 AID(非生息,T-Bills 储备) → 持有人质押并获得 sAID(收益型) → 质押资金用于 GPU/机器人融资协议 → SPC 还款流入 GAIB → sAID 价值随时间增长 → 投资者销毁 sAID 赎回本金与收益。
风险管理机制:
超额抵押 —— 融资池资产通常保持约 30% 的超额抵押率。现金储备 —— 约 5–7% 的资金被划入独立储备账户,用于利息支付与违约缓冲。信用保险 —— 通过与合规保险机构合作,部分转移 GPU Provider 的违约风险。违约处置 —— 若违约发生,GAIB 与承销方可选择清算 GPU、转移至其他运营商或托管继续产生现金流。SPC 的破产隔离结构确保各资产池之间独立,不受连带影响。
此外,GAIB 信用委员会负责制定 代币化标准、信用评估框架与承销准入门槛,并基于结构化风险分析框架(涵盖借款人基本面、外部环境、交易结构与回收率)实施尽调和贷后监控,确保交易的 安全性、透明度与可持续性。
结构化风险评估框架(仅供参考示例)

六、链上:AID合成美金、sAID 收益机制及Alpha存款计划
GAIB 双币模型:AID 合成美金与 sAID 流动性收益凭证
GAIB 推出的 AID(AI Synthetic Dollar) 是一种以美债储备为支撑的合成美金。其供应与协议资本动态挂钩:资金流入协议时铸造 AID,收益分配或赎回时销毁 AID,从而确保其规模与底层资产价值保持一致。AID 本身仅承担稳定计价与流通职能,并不直接产生收益。
为了获取收益,用户需要将 AID 质押转换为 sAID。sAID 作为一种可流通的收益凭证,其价值会随协议层的真实收益(GPU/机器人融资回款、美债利息等)逐步升值。收益通过 sAID/AID 的兑换比率 体现,用户无需额外操作,只需持有 sAID 即可自动累积收益。在赎回时,用户可经过冷却期取回初始本金与累计奖励。
从功能上看,AID 提供 稳定性与可组合性,可被用于交易、借贷、流动性提供;而 sAID 承载 收益属性,既可直接增值,也可进一步进入 DeFi 协议拆分为 本金与收益代币(PT/YT),满足不同风险偏好的投资者需求。
总体而言,AID 与 sAID 构成了 GAIB 经济层的核心双币结构:AID 保障稳定流通,sAID 捕捉真实收益。这种设计既保持了合成稳定币的可用性,又为用户提供了与 AI 基础设施经济挂钩的收益入口。
GAIB AID / sAID vs Ethena USDe / sUSDe vs Lido stETH 收益模式对比
AID 与 sAID 的关系,可类比 Ethena 的 USDe / sUSDe 以及 Lido 的 ETH / stETH:前者作为合成美元本身不产生收益,只有在转换为 sToken 后才能自动累积收益。不同点在于,sAID 的收益来源于 GPU 融资合同与美债,sUSDe 的收益来自 衍生品对冲,而 stETH 则依托于 ETH Staking。

AID Alpha:GAIB 主网前的流动性启动与积分激励机制
AID Alpha 于 2025 年 5 月 12 日正式上线,作为 AID 主网前的流动性启动阶段(Early Deposit Program),旨在通过早期存款引导协议资金,同时给予参与者额外奖励与游戏化激励。所有存款初期将进入美债(T-Bills)以确保安全性,随后逐步配置至 GPU 融资交易,形成从“低风险—高收益”的过渡路径。
技术层面,AID Alpha 智能合约遵循 ERC-4626 标准,用户每存入一美元稳定币或合成稳定币,都会获得对应链上的 AIDα 收据 Token(如 AIDaUSDC、AIDaUSDT),保证跨链一致性与可组合性。
在 Final Spice 阶段,GAIB 通过 AIDα 机制开放了多元化的稳定币入口,包括 USDC、USDT、USR、CUSDO 以及 USD1。用户存入稳定币后,会获得对应的 AIDα 收据 Token(如 AIDaUSDC、AIDaUSD1),该 Token 即代表存款凭证,并自动计入 Spice 积分体系,可进一步参与 Pendle、Curve 等 DeFi 组合玩法。
截至目前,AIDα 总存款规模已触及 $80M 上限,AIDα 资产池明细如下:

所有 AIDα 存款均设有不超过两个月的锁定期,活动结束后,用户可选择将 AIDα 兑换为主网 AID 并质押成 sAID享受持续收益,也可直接赎回原始资产,同时保留累积的 Spice 积分。Spice 是 GAIB 在 AID Alpha 阶段推出的积分体系,用于衡量早期参与度与分配未来治理权。其规则为“1 USD = 1 Spice/天”,并叠加多渠道倍数(如存款 10x、Pendle YT 20x、Resolv USR 30x),最高可达 30 倍,形成“收益 + 积分”的双重激励。此外,推荐机制进一步放大收益(一级 20%、二级 10%),Final Spice 结束后积分将被锁定,用于主网上线时的治理与奖励分配。
此外,GAIB 发行了 3,000 枚限量版 Fremen Essence NFT,作为早期支持者的专属凭证。前 200 名大额存款者享有保留名额,其余名额则通过白名单及 $1,500+ 存款资格分配。NFT 可 免费铸造(仅需支付 Gas 费),持有者将获得主网上线时的专属奖励、产品优先测试权及核心社区身份。目前,该 NFT 在二级市场的价格约为 0.1 ETH,累计交易量已达 98 ETH。
七、GAIB 链上资金与链下资产透明度

GAIB 在资产与协议透明度方面保持高标准,用户可通过官网、DefiLlama 与 Dune 实时追踪其链上资产类别(USDC、USDT、USR、CUSDO、USD1)、跨链分布(Ethereum、Sei、Arbitrum、Base等)、TVL趋势及明细;同时,官网还披露了链下底层资产的配置比例、在投项目(Active Deals)金额、预期收益及管道项目(Selected Pipeline)情况。

GAIB官方网站:https://aid.gaib.ai/transparencyDefillama:https://defillama.com/protocol/tvl/gaibDune:https://dune.com/gaibofficial

截至 2025 年 10 月,GAIB 管理资产总规模约 $175.29M,“双层配置”既兼顾稳健性,又带来 AI Infra 融资的超额回报。
储备资产(Reserves)占 71%,约 $124.9M,主要为美债,预期年化收益约 4%;已部署资产(Deployed)占 29%,约 $50.4M,用于链下 GPU 与机器人融资项目,平均年化收益约 15%。

链上资金分布方面,根据 Dune 最新数据,跨链分布上,Ethereum 占比 83.2%,Sei 占 13.0%,Base 与 Arbitrum 合计不足 4%。按资产结构计算,资金主要来自 USDC(52.4%)与USDT(47.4%),其余为 USD1(~2%)、USR(0.1%)、CUSDO(0.09%)。
链下资产分布方面,GAIB 在投项目与资金部署保持一致,已包括泰国 Siam.AI($30M,15% APY)、两笔 Robotics Financing(合计 $15M,15% APY)以及美国 US Neocloud Provider($5.4M,30% APY)。与此同时,GAIB 还建立了约 $725M 的项目储备,更广义的总项目储备展望为 $2.5B+ / 1–2 年,覆盖 GMI Cloud 及多地区的 Nvidia Cloud Partners(亚洲 $200M 与 $300M、欧洲 $60M、阿联酋 $80M)、北美 Neocloud Providers($15M 与 $30M),以及机器人资产提供方($20M),为后续扩张与放量奠定坚实基础。

八、生态体系:算力、机器人与 DeFi 
GAIB 的生态体系由 GPU 计算资源、机器人创新企业以及 DeFi 协议集成三大部分构成,旨在形成“真实算力资产 → 金融化 → DeFi 优化”的完整闭环。

GPU 计算生态资源:算力资产上链
在 AI 基础设施的链上融资生态中,GAIB 已与多类算力服务商合作,覆盖主权级/企业级云(GMI、Siam.AI) 与 去中心化网络(Aethir、PaleBlueDot.AI),既保证算力稳定性,也拓展了 RWA 的叙事空间。
GMI Cloud:NVIDIA 全球 6 家 Reference Platform Partner 之一,运营 7 个数据中心、5 个国家,已融资约 $95M。以低延迟、AI 原生环境见长。通过 GAIB 的融资模式,其 GPU 扩张具备更强的跨区域弹性。Siam.AI:泰国首家主权级 NVIDIA Cloud Partner,在 AI/ML 与渲染场景中性能最高提升 35x、成本下降 80%。已与 GAIB 完成 $30M GPU Tokenization,为 GAIB 首单 GPU RWA 案例,奠定其在东南亚市场的先发优势。Aethir:领先的去中心化 GPUaaS 网络,规模 40,000+ GPU(含 3,000+ H100)。2025 年初与 GAIB 在 BNB Chain 联合完成 首批 GPU Tokenization 试点,10 分钟完成 $100K 融资。未来将探索 AID/sAID 与 Aethir staking 打通,形成双重收益。PaleBlueDot.AI:新兴去中心化 GPU 云,其参与强化了 GAIB 的 DePIN 叙事。
机器人生态:具身智能的链上融资
GAIB 已正式切入具身智能(Embodied AI)赛道,正将 GPU Tokenization 模式延伸至机器人产业,构建“Compute + Robotics”双引擎生态,以 SPV 抵押结构和现金流分配为核心,并通过 AID/sAID 将机器人与 GPU 收益打包,实现硬件和运营的链上金融化。目前已部署合计 1,500 万美元的机器人融资,预期年化收益率约 15%,合作伙伴包括 OpenMind、PrismaX、CAMP、Kite 及 SiamAI Robotics,覆盖硬件、数据流和供应链的多维创新。
PrismaX:PrismaX 的定位是“机器人即矿机”,通过遥操作平台连接操作员、机器人与数据需求方,生成高价值的动作与视觉数据,单价约 30–50 美元/小时,并已通过 $99/次的付费模式验证早期商业化。GAIB 为其提供融资以扩展机器人规模,数据出售收益则通过 AID/sAID 回流投资人,形成以数据采集为核心的金融化路径。OpenMind:OpenMind 则以 FABRIC 网络与 OM1 操作系统提供身份认证、可信数据共享和多模态集成,相当于行业“TCP/IP”。GAIB 将这些任务与数据合同资产化上链,为其提供资本支持。双方结合实现“技术可信性 + 金融资产化”的互补,使机器人资产从实验室阶段走向可融资、可迭代、可验证的规模化发展。
整体而言,GAIB 通过与 PrismaX 的数据网络、OpenMind 的控制系统及 CAMP 的基础设施部署协作,逐步构建覆盖机器人硬件、运营与数据价值链的完整生态,加速具身智能的产业化与金融化。
DeFi 生态:协议集成与收益优化
在 AID Alpha 阶段,GAIB 将 AID/aAID 资产与多类 DeFi 协议深度集成,通过 收益拆分、流动性挖掘、抵押借贷与收益增强 等方式,形成了跨链、多元的收益优化体系,并以 Spice 积分 作为统一激励。

Pendle:用户可将 AIDaUSDC/USDT 分拆为 PT(本金 Token)与 YT(收益 Token)。PT 提供约 15% 固定收益,YT 则承载未来收益并享有 30 倍积分加成,LP 流动性提供者可获得 20 倍积分。Equilibria 与 Penpie:作为 Pendle 的收益增强器,前者可在原有收益上额外提升 ~5%,后者最高可达 88% APR,两者均叠加 20 倍积分放大。Morpho:支持将 PT-AIDa 作为抵押物借出 USDC,赋予用户在保持仓位的同时获取流动性的能力,并拓展至以太坊主流借贷市场。Curve:AIDaUSDC/USDC 流动性池可获取交易费收益,同时获得 20 倍积分,适合偏好稳健策略的参与者。CIAN & Takara(Sei 链):用户可将 enzoBTC 抵押于 Takara 借出稳定币,再经 CIAN 智能金库自动注入 GAIB 策略,实现 BTCfi 与 AI Yield 的结合,并享有 5 倍积分加成。Wand(Story Protocol):在 Story 链上,Wand 为 AIDa 资产提供类似 Pendle 的 PT/YT 拆分结构,YT Token 可获得 20 倍积分,进一步强化了 AI Yield 的跨链组合性。
整体来看,GAIB 的 DeFi 集成策略涵盖 Ethereum、Arbitrum、 Base、Sei 与 Story Protocol、 BNB Chain和Plume Network等公链,通过 Pendle 及其生态增强器(Equilibria、Penpie)、借贷市场(Morpho)、稳定币 DEX(Curve)、BTCfi 金库(CIAN + Takara)、以及原生 AI 叙事的 Wand 协议,实现了从固定收益、杠杆收益到跨链流动性的全方位覆盖。
九、团队背景及项目融资
GAIB 团队汇聚了来自 AI、云计算与 DeFi 领域的专家,核心成员曾任职于 L2IV、火币、 高盛、Ava Labs 与 Binance Labs 等机构。团队成员毕业于康奈尔大学、宾夕法尼亚大学、南洋理工大学与加州大学洛杉矶分校,具备深厚的金融、工程与区块链基础设施经验,共同构建起连接真实世界 AI 资产与链上金融创新的坚实基础。

Kony Kwong 为 GAIB 联合创始人兼 CEO,具备传统金融与加密风投的跨界经验。曾任 L2 Iterative Ventures 投资人,并在 Huobi M&A 负责基金管理与并购,早年就职于招银国际、高盛、中信证券等机构。毕业于香港大学国际商务与金融学(一等荣誉),并获宾夕法尼亚大学计算机科学硕士学位。他认为 AI 基础设施缺乏金融化(“-fi”)环节,因此创立 GAIB,将 GPU 与机器人等真实算力资产转化为链上可投资产品。
Jun Liu 为 GAIB 联合创始人兼 CTO,兼具学术研究与产业实践背景,专注于区块链安全、加密经济学与 DeFi 基础设施。曾任 Sora Ventures 副总裁,亦在 Ava Labs 担任技术经理,支持 BD 团队并负责智能合约审计,同时在 Blizzard Fund 主导技术尽调工作。本科毕业于台湾大学计算机科学与电机工程双学位,后于康奈尔大学攻读计算机科学博士并参与 IC3 区块链研究。他的专长在于构建安全可扩展的去中心化金融架构。
Alex Yeh 为 GAIB 联合创始人及顾问,同时担任 GMI Cloud 创始人兼 CEO。GMI Cloud 是全球领先的 AI 原生云计算服务商之一,并获选为 6 家 NVIDIA Reference Platform Partner 之一。Alex 拥有半导体与 AI Cloud 背景,管理Realtek 家族办公室,并曾在 CDIB与IVC 任职。在 GAIB,他主要负责产业合作,将 GMI 的 GPU 基础设施与客户网络引入协议,推动 AI Infra 资产的金融化落地。

2024 年 12 月,GAIB 完成 500 万美元 Pre-Seed 融资,由 Hack VC、Faction、Hashed 领投,参投方包括 The Spartan Group、L2IV、CMCC Global、Animoca Brands、IVC、MH Ventures、Presto Labs、J17、IDG Blockchain、280 Capital、Aethir、NEAR Foundation 等知名机构,以及多位产业与加密领域的天使投资人。随后在 2025 年 7 月,GAIB 又获得 1,000 万美元战略投资,由 Amber Group 领投,多家亚洲投资者跟投。此次资金将重点用于 GPU 资产 Token 化,进一步推动 GAIB 基础设施完善、GPU 金融化产品扩展,并深化与 AI 和加密生态的战略合作,强化机构在链上 AI 基础设施中的参与度。

十、总结:商业逻辑及潜在风险
商业逻辑:GAIB 的核心定位是 RWAiFi,即将 AI 基础设施资产(GPU、机器人等)通过链上化的方式转化为可组合的金融产品,形成 “真实资产 → 现金流证券化 → DeFi 优化” 的闭环。其商业逻辑建立在三点:
资产端:GPU 与机器人具备“高价值硬件 + 可预测现金流”的特性,符合 RWA 化的基本要求。GPU 因标准化、残值明确与需求旺盛,成为当前最现实的切入点;机器人则代表更长期的探索方向,依托遥操作、数据采集与 RaaS 模式逐步实现现金流上链。资金端:通过 AID(稳定结算、非生息、T-Bills 储备) 与 sAID(收益型基金代币,底层为融资组合 + T-Bills) 的双层结构,GAIB 实现稳定流通与收益捕获分离。并通过 PT/YT、借贷、LP 流动性等 DeFi 集成释放收益与流动性。生态端:与 GMI、Siam.AI 等主权级 GPU 云,Aethir等去中心化网络,以及 PrismaX、OpenMind 等机器人公司合作,建立跨硬件、数据与服务的产业网络,推动“Compute + Robotics”双引擎发展。
此外GAIB 采用 SPC(Segregated Portfolio Company)结构 将链下融资协议转化为链上收益凭证。核心机制包括:
融资模式:债务(10–20% APY)、收益分成(60–80%+)、混合结构,期限短(3–36 个月),回本周期快。信用与风控:通过超额抵押(约 30%)、现金储备(5–7%)、信用保险与违约处置(GPU 清算/托管运营)保障安全性;并配合第三方承销与尽调,建立内部信用评级体系。链上机制:AID 铸造/赎回与 sAID 收益累积,结合 Pendle、Morpho、Curve、CIAN、Wand 等协议,实现跨链、多维度的收益优化。透明度:官网、DefiLlama 与 Dune 提供实时资产与资金流追踪,确保链下融资与链上资产对应关系清晰。
潜在风险:GAIB 及其相关产品(AID、sAID、AID Alpha、GPU Tokenization 等)在设计上通过链上透明化提升了收益可见性,但其底层风险依然存在,投资者需充分评估自身风险承受能力谨慎参与:
市场与流动性风险:GPU 融资收益和数字资产价格均受市场波动影响,回报并无保证;产品存在锁定期,若市场环境恶化投资者可能面临流动性不足或折价退出的风险。信用与执行风险:GPU 与机器人融资多涉及中小企业,违约概率相对更高;资产回收高度依赖链下执行力,若处置不畅,将直接影响投资人回款。技术与安全风险:智能合约漏洞、黑客攻击、预言机操纵或私钥遗失,均可能造成资产损失;与第三方 DeFi 协议(如 Pendle、Curve 等)的深度绑定,虽能提升 TVL 增长,但也引入了外部协议的安全与流动性风险。资产特性与运营风险:GPU 具备标准化和残值市场,而机器人资产非标准化程度高,运营依赖利用率与维护;跨区域扩张中,机器人资产尤其容易受到法规差异和政策不确定性影响。合规与监管风险:GAIB 投资的算力资产属于新的市场与资产类别,而并不非传统金融牌照的覆盖范围内。这可能会引发地区性监管问题,包括对其业务运营、资产发行及使用的限制。
免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
查看原文
从联邦学习到去中心化代理网络:对ChainOpera的分析由0xjacobzhao撰写 | https://linktr.ee/0xjacobzhao 在我们的6月报告“加密AI的圣杯:去中心化训练的前沿探索”中,我们讨论了联邦学习——一种在分布式训练和完全去中心化训练之间定位的“受控去中心化”范式。其核心原则是在集中聚合参数的同时保持数据本地,这一设计特别适合于隐私敏感和合规要求高的行业,如医疗保健和金融。

从联邦学习到去中心化代理网络:对ChainOpera的分析

由0xjacobzhao撰写 | https://linktr.ee/0xjacobzhao
在我们的6月报告“加密AI的圣杯:去中心化训练的前沿探索”中,我们讨论了联邦学习——一种在分布式训练和完全去中心化训练之间定位的“受控去中心化”范式。其核心原则是在集中聚合参数的同时保持数据本地,这一设计特别适合于隐私敏感和合规要求高的行业,如医疗保健和金融。
从联邦学习到去中心化 Agent 网络:ChainOpera 项目解析在 6 月份的研报《Crypto AI 的圣杯:去中心化训练的前沿探索》中,我们提及联邦学习(Federated Learning)这一介于分布式训练与去中心化训练之间的“受控去中心化”方案:其核心是数据本地保留、参数集中聚合,满足医疗、金融等隐私与合规需求。与此同时,我们在过往多期研报中持续关注智能体(Agent)网络的兴起——其价值在于通过多智能体的自治与分工,协作完成复杂任务,推动“大模型”向“多智能体生态”的演进。 联邦学习以“数据不出本地、按贡献激励”奠定了多方协作的基础,其分布式基因、透明激励、隐私保障与合规实践为 Agent Network 提供了可直接复用的经验。FedML 团队正是沿着这一路径,将开源基因升级为 TensorOpera(AI产业基础设施层),再演进至 ChainOpera(去中心化 Agent 网络)。当然,Agent Network 并非联邦学习的必然延伸,其核心在于多智能体的自治协作与任务分工,也可直接基于多智能体系统(MAS)、强化学习(RL)或区块链激励机制构建。 一、联邦学习与AI Agent技术栈架构 联邦学习(Federated Learning, FL) 是一种在不集中数据的前提下进行协同训练的框架,其基本原理是由各参与方在本地训练模型,仅上传参数或梯度至协调端进行聚合,从而实现“数据不出域”的隐私合规。经过医疗、金融和移动端等典型场景的实践,联邦学习 已进入较为成熟的商用阶段,但仍面临通信开销大、隐私保护不彻底、设备异构导致收敛效率低等瓶颈。与其他训练模式相比,分布式训练强调算力集中以追求效率与规模,去中心化训练则通过开放算力网络实现完全分布式协作,而联邦学习则处于二者之间,体现为一种 “受控去中心化” 方案:既能满足产业在隐私与合规方面的需求,又提供了跨机构协作的可行路径,更适合工业界过渡性部署架构。 而在整个AI Agent协议栈中,我们在之前的研报中将其划分为三个主要层级,即 基础设施层(Agent Infrastructure Layer):该层为智能体提供最底层的运行支持,是所有 Agent 系统构建的技术根基。 核心模块:包括 Agent Framework(智能体开发与运行框架)和 Agent OS(更底层的多任务调度与模块化运行时),为 Agent 的生命周期管理提供核心能力。支持模块:如 Agent DID(去中心身份)、Agent Wallet & Abstraction(账户抽象与交易执行)、Agent Payment/Settlement(支付与结算能力)。 协调与调度层(Coordination & Execution Layer)关注多智能体之间的协同、任务调度与系统激励机制,是构建智能体系统“群体智能”的关键。 Agent Orchestration:是指挥机制,用于统一调度和管理 Agent 生命周期、任务分配和执行流程,适用于有中心控制的工作流场景。Agent Swarm:是协同结构,强调分布式智能体协作,具备高度自治性、分工能力和弹性协同,适合应对动态环境中的复杂任务。Agent Incentive Layer:构建 Agent 网络的经济激励系统,激发开发者、执行者与验证者的积极性,为智能体生态提供可持续动力。 应用层(Application & Distribution Layer)分发子类:包括Agent Launchpad、Agent Marketplace 和Agent Plugin Network应用子类:涵盖AgentFi、Agent Native DApp、Agent-as-a-Service等消费子类:Agent Social / Consumer Agent为主,面向消费者社交等轻量场景Meme:借 Agent 概念炒作,缺乏实际的技术实现和应用落地,仅营销驱动。 二、联邦学习标杆 FedML 与 TensorOpera 全栈平台 FedML 是最早面向联邦学习(Federated Learning)与分布式训练的开源框架之一,起源于学术团队(USC)并逐步公司化成为 TensorOpera AI 的核心产品。它为研究者和开发者提供跨机构、跨设备的数据协作训练工具,在学术界,FedML 因频繁出现在 NeurIPS、ICML、AAAI 等顶会上,已成为联邦学习研究的通用实验平台;在产业界,FedML在医疗、金融、边缘 AI 及 Web3 AI 等隐私敏感场景中具备较高口碑,被视为 联邦学习领域的标杆性工具链。 TensorOpera是 FedML基于商业化路径升级为面向企业与开发者的全栈 AI 基础设施平台:在保持联邦学习能力的同时,扩展至 GPU Marketplace、模型服务与 MLOps,从而切入大模型与 Agent 时代的更大市场。TensorOpera的整体架构可分为Compute Layer(基础层)、Scheduler Layer(调度层)和MLOps Layer(应用层)三个层级: 1. Compute Layer(底层) Compute 层是 TensorOpera 的技术基底,延续 FedML 的开源基因,核心功能包括 Parameter Server、Distributed Training、Inference Endpoint 与 Aggregation Server。其价值定位在于提供分布式训练、隐私保护的联邦学习以及可扩展的推理引擎,支撑 “Train / Deploy / Federate” 三大核心能力,覆盖从模型训练、部署到跨机构协作的完整链路,是整个平台的基础层。 2. Scheduler Layer(中层) Scheduler 层相当于算力交易与调度中枢,由 GPU Marketplace、Provision、Master Agent 与 Schedule & Orchestrate 构成,支持跨公有云、GPU 提供商和独立贡献者的资源调用。这一层是 FedML 升级为 TensorOpera 的关键转折,能够通过智能算力调度与任务编排实现更大规模的 AI 训练和推理,涵盖 LLM 与生成式 AI 的典型场景。同时,该层的 Share & Earn 模式预留了激励机制接口,具备与 DePIN 或 Web3 模式兼容的潜力。 3. MLOps Layer(上层) MLOps 层是平台直接面向开发者与企业的服务接口,包括 Model Serving、AI Agent 与 Studio 等模块。典型应用涵盖 LLM Chatbot、多模态生成式 AI 和开发者 Copilot 工具。其价值在于将底层算力与训练能力抽象为高层 API 与产品,降低使用门槛,提供即用型 Agent、低代码开发环境与可扩展部署能力,定位上对标 Anyscale、Together、Modal 等新一代 AI Infra 平台,充当从基础设施走向应用的桥梁。 2025年3月,TensorOpera 升级为面向 AI Agent 的全栈平台,核心产品涵盖 AgentOpera AI App、Framework 与 Platform。应用层提供类 ChatGPT 的多智能体入口,框架层以图结构多智能体系统和 Orchestrator/Router 演进为“Agentic OS”,平台层则与 TensorOpera 模型平台和 FedML 深度融合,实现分布式模型服务、RAG 优化和混合端云部署。整体目标是打造 “一个操作系统,一个智能体网络”,让开发者、企业与用户在开放、隐私保护的环境下共建新一代 Agentic AI 生态。 三、ChainOpera AI生态全景:从共创共有者到技术基座 如果说 FedML 是技术内核,提供了联邦学习与分布式训练的开源基因;TensorOpera 将 FedML 的科研成果抽象为可商用的全栈 AI 基础设施,那么 ChainOpera 则是将TensorOpera 的平台能力“上链”,通过 AI Terminal + Agent Social Network + DePIN 模型与算力层 + AI-Native 区块链 打造一个去中心化的 Agent 网络生态。其核心转变在于,TensorOpera 仍主要面向企业与开发者,而 ChainOpera 借助 Web3 化的治理与激励机制,把用户、开发者、GPU/数据提供者纳入共建共治,让 AI Agent 不只是“被使用”,而是“被共创与共同拥有”。 共创者生态(Co-creators)  ChainOpera AI 通过 Model & GPU Platform 与 Agent Platform 为生态共创提供工具链、基础设施与协调层,支持模型训练、智能体开发、部署与扩展协作。 ChainOpera 生态的共创者涵盖 AI Agent 开发者(设计与运营智能体)、工具与服务提供方(模板、MCP、数据库与 API)、模型开发者(训练与发布模型卡)、GPU 提供方(通过 DePIN 与 Web2 云伙伴贡献算力)、数据贡献者与标注方(上传与标注多模态数据)。三类核心供给——开发、算力与数据——共同驱动智能体网络的持续成长。 共有人生态(Co-owners) ChainOpera 生态还引入 共有人机制,通过合作与参与共同建设网络。AI Agent 创作者是个人或团队,通过 Agent Platform 设计与部署新型智能体,负责构建、上线并持续维护,从而推动功能与应用的创新。AI Agent 参与者则来自社区,他们通过获取和持有访问单元(Access Units)参与智能体的生命周期,在使用与推广过程中支持智能体的成长与活跃度。两类角色分别代表 供给端与需求端,共同形成生态内的价值共享与协同发展模式。 生态合作伙伴:平台与框架 ChainOpera AI 与多方合作,强化平台的可用性与安全性,并注重 Web3 场景融合:通过 AI Terminal App 联合钱包、算法与聚合平台实现智能服务推荐;在 Agent Platform 引入多元框架与零代码工具,降低开发门槛;依托 TensorOpera AI 进行模型训练与推理;并与 FedML 建立独家合作,支持跨机构、跨设备的隐私保护训练。整体上,形成兼顾 企业级应用 与 Web3 用户体验 的开放生态体系。 硬件入口:AI 硬件与合作伙伴(AI Hardware & Partners) 通过 DeAI Phone、可穿戴与 Robot AI 等合作伙伴,ChainOpera 将区块链与 AI 融合进智能终端,实现 dApp 交互、端侧训练与隐私保护,逐步形成去中心化 AI 硬件生态。 中枢平台与技术基座:TensorOpera GenAI & FedML TensorOpera 提供覆盖 MLOps、Scheduler、Compute 的全栈 GenAI 平台;其子平台 FedML 从学术开源成长为产业化框架,强化了 AI “随处运行、任意扩展” 的能力。 ChainOpera AI 生态体系 四、ChainOpera核心产品及全栈式 AI Agent 基础设施 2025年6月,ChainOpera正式上线 AI Terminal App 与去中心化技术栈,定位为“去中心化版 OpenAI”,其核心产品涵盖四大模块:应用层(AI Terminal & Agent Network)、开发者层(Agent Creator Center)、模型与 GPU 层(Model & Compute Network)、以及 CoAI 协议与专用链,覆盖了从用户入口到底层算力与链上激励的完整闭环。 AI Terminal App 已集成 BNBChain ,支持链上交易与 DeFi 场景的 Agent。Agent Creator Center 面向开发者开放,提供 MCP/HUB、知识库与 RAG 等能力,社区智能体持续入驻;同时发起 CO-AI Alliance,联动 io.net、Render、TensorOpera、FedML、MindNetwork 等伙伴。 根据BNB DApp Bay 近 30 日的链上数据显示,其独立用户 158.87K,近30日交易量260万,在在 BSC「AI Agent」分类中排名全站第二,显示出强劲的链上活跃度。 Super AI Agent App – AI Terminal (https://chat.chainopera.ai/) 作为去中心化 ChatGPT 与 AI 社交入口,AI Terminal 提供多模态协作、数据贡献激励、DeFi 工具整合、跨平台助手,并支持 AI Agent 协作与隐私保护(Your Data, Your Agent)。用户可在移动端直接调用开源大模型 DeepSeek-R1 与社区智能体,交互过程中语言 Token 与加密 Token 在链上透明流转。其价值在于让用户从“内容消费者”转变为“智能共创者”,并能在 DeFi、RWA、PayFi、电商等场景中使用专属智能体网络。 AI Agent Social Network (https://chat.chainopera.ai/agent-social-network) 定位类似 LinkedIn + Messenger,但面向 AI Agent 群体。通过虚拟工作空间与 Agent-to-Agent 协作机制(MetaGPT、ChatDEV、AutoGEN、Camel),推动单一 Agent 演化为多智能体协作网络,覆盖金融、游戏、电商、研究等应用,并逐步增强记忆与自主性。 AI Agent Developer Platform (https://agent.chainopera.ai/) 为开发者提供“乐高式”创作体验。支持零代码与模块化扩展,区块链合约确保所有权,DePIN + 云基础设施降低门槛,Marketplace 提供分发与发现渠道。其核心在于让开发者快速触达用户,生态贡献可透明记录并获得激励。 AI Model & GPU Platform (https://platform.chainopera.ai/) 作为基础设施层,结合 DePIN 与联邦学习,解决 Web3 AI 依赖中心化算力的痛点。通过分布式 GPU、隐私保护的数据训练、模型与数据市场,以及端到端 MLOps,支持多智能体协作与个性化 AI。其愿景是推动从“大厂垄断”到“社区共建”的基建范式转移。 五、ChainOpera AI 的路线图规划 除去已正式上线全栈 AI Agent平台外, ChainOpera AI 坚信通用人工智能(AGI)来自 多模态、多智能体的协作网络。因此其远期路线图规划分为四个阶段: 阶段一(Compute → Capital):构建去中心化基础设施,包括 GPU DePIN 网络、联邦学习与分布式训练/推理平台,并引入 模型路由器(Model Router)协调多端推理;通过激励机制让算力、模型与数据提供方获得按使用量分配的收益。阶段二(Agentic Apps → Collaborative AI Economy):推出 AI Terminal、Agent Marketplace 与 Agent Social Network,形成多智能体应用生态;通过 CoAI 协议 连接用户、开发者与资源提供者,并引入 用户需求–开发者匹配系统 与信用体系,推动高频交互与持续经济活动。阶段三(Collaborative AI → Crypto-Native AI):在 DeFi、RWA、支付、电商等领域落地,同时拓展至 KOL 场景与个人数据交换;开发面向金融/加密的专用 LLM,并推出 Agent-to-Agent 支付与钱包系统,推动“Crypto AGI”场景化应用。阶段四(Ecosystems → Autonomous AI Economies):逐步演进为自治子网经济,各子网围绕 应用、基础设施、算力、模型与数据 独立治理、代币化运作,并通过跨子网协议协作,形成多子网协同生态;同时从 Agentic AI 迈向 Physical AI(机器人、自动驾驶、航天)。 免责声明:本路线图仅供参考,时间表与功能可能因市场环境动态调整,不构成交付保证承诺。 七、代币激励与协议治理 目前 ChainOpera 尚未公布完整的代币激励计划,但其 CoAI 协议以“共创与共拥有”为核心,通过区块链与 Proof-of-Intelligence 机制实现透明可验证的贡献记录:开发者、算力、数据与服务提供者的投入按标准化方式计量并获得回报,用户使用服务、资源方支撑运行、开发者构建应用,所有参与方共享增长红利;平台则以 1% 服务费、奖励分配和流动性支持维持循环,推动开放、公平、协作的去中心化 AI 生态。 Proof-of-Intelligence 学习框架 Proof-of-Intelligence (PoI) 是 ChainOpera 在 CoAI 协议下提出的核心共识机制,旨在为去中心化 AI 构建提供透明、公平且可验证的激励与治理体系。其基于Proof-of-Contribution(贡献证明) 的区块链协作机器学习框架,旨在解决联邦学习(FL)在实际应用中存在的激励不足、隐私风险与可验证性缺失问题。该设计以智能合约为核心,结合去中心化存储(IPFS)、聚合节点和零知识证明(zkSNARKs),实现了五大目标:① 按贡献度进行公平奖励分配,确保训练者基于实际模型改进获得激励;② 保持数据本地化存储,保障隐私不外泄;③ 引入鲁棒性机制,对抗恶意训练者的投毒或聚合攻击;④ 通过 ZKP 确保模型聚合、异常检测与贡献评估等关键计算的可验证性;⑤ 在效率与通用性上适用于异构数据和不同学习任务。 全栈式 AI 中代币价值 ChainOpera 的代币机制围绕五大价值流(LaunchPad、Agent API、Model Serving、Contribution、Model Training)运作,核心是 服务费、贡献确认与资源分配,而非投机回报。 AI 用户:用代币访问服务或订阅应用,并通过提供/标注/质押数据贡献生态。Agent/应用开发者:使用平台算力与数据进行开发,并因其贡献的 Agent、应用或数据集获得协议认可。资源提供者:贡献算力、数据或模型,获得透明记录与激励。治理参与者(社区 & DAO):通过代币参与投票、机制设计与生态协调。协议层(COAI):通过服务费维持可持续发展,利用自动化分配机制平衡供需。节点与验证者:提供验证、算力与安全服务,确保网络可靠性。 协议治理 ChainOpera 采用 DAO 治理,通过质押代币参与提案与投票,确保决策透明与公平。治理机制包括:声誉系统(验证并量化贡献)、社区协作(提案与投票推动生态发展)、参数调整(数据使用、安全与验证者问责)。整体目标是避免权力集中,保持系统稳定与社区共创。 八、团队背景及项目融资 ChainOpera项目由在联邦学习领域具有深厚造诣的 Salman Avestimehr 教授 与 何朝阳(Aiden)博士 共同创立。其他核心团队成员背景横跨 UC Berkeley、Stanford、USC、MIT、清华大学 以及 Google、Amazon、Tencent、Meta、Apple 等顶尖学术与科技机构,兼具学术研究与产业实战能力。截止目前,ChainOpera AI 团队规模已超过 40 人。 联合创始人:Salman Avestimehr Salman Avestimehr 教授是 南加州大学(USC)电气与计算机工程系的 Dean’s Professor,并担任 USC-Amazon Trusted AI 中心创始主任,同时领导 USC 信息论与机器学习实验室(vITAL)。他是 FedML 联合创始人兼 CEO,并在 2022 年共同创立了 TensorOpera/ChainOpera AI。 Salman Avestimehr 教授毕业于 UC Berkeley EECS 博士(最佳论文奖)。作为IEEE Fellow,在信息论、分布式计算与联邦学习领域发表高水平论文 300+ 篇,引用数超 30,000,并获 PECASE、NSF CAREER、IEEE Massey Award 等多项国际荣誉。其主导创建 FedML 开源框架,广泛应用于医疗、金融和隐私计算,并成为 TensorOpera/ChainOpera AI 的核心技术基石。 联合创始人:Dr. Aiden Chaoyang He Dr. Aiden Chaoyang He 是 TensorOpera/ChainOpera AI 联合创始人兼总裁,南加州大学(USC)计算机科学博士、FedML 原始创建者。其研究方向涵盖分布式与联邦学习、大规模模型训练、区块链与隐私计算。在创业之前,他曾在 Meta、Amazon、Google、Tencent 从事研发,并在腾讯、百度、华为担任核心工程与管理岗位,主导多个互联网级产品与 AI 平台的落地。 学术与产业方面,Aiden 已发表 30 余篇论文,Google Scholar 引用超过 13,000,并获 Amazon Ph.D. Fellowship、Qualcomm Innovation Fellowship 及 NeurIPS、AAAI 最佳论文奖。他主导开发的 FedML 框架是联邦学习领域最广泛使用的开源项目之一,支撑 日均 270 亿次请求;并作为核心作者提出 FedNLP 框架、混合模型并行训练方法,被广泛应用于Sahara AI等去中心化AI项目。 2024 年 12 月,ChainOpera AI 宣布完成 350 万美元种子轮融资,累计与 TensorOpera 共计融资 1700 万美元,资金将用于构建面向去中心化 AI Agent 的区块链 L1 与 AI 操作系统。本轮融资由 Finality Capital、Road Capital、IDG Capital 领投,跟投方包括 Camford VC、ABCDE Capital、Amber Group、Modular Capital 等,亦获得 Sparkle Ventures、Plug and Play、USC 以及 EigenLayer 创始人 Sreeram Kannan、BabylonChain 联合创始人 David Tse 等知名机构和个人投资人支持。团队表示,此轮融资将加速实现 “AI 资源贡献者、开发者与用户共同 co-own 和 co-create 的去中心化 AI 生态” 愿景。 九、联邦学习与AI Agent市场格局分析 联邦学习框架主要有四个代表:FedML、Flower、TFF、OpenFL。其中,FedML 最全栈,兼具联邦学习、分布式大模型训练与 MLOps,适合产业落地;Flower 轻量易用,社区活跃,偏教学与小规模实验;TFF 深度依赖 TensorFlow,学术研究价值高,但产业化弱;OpenFL 聚焦医疗/金融,强调隐私合规,生态较封闭。总体而言,FedML 代表工业级全能路径,Flower 注重易用性与教育,TFF 偏学术实验,OpenFL 则在垂直行业合规性上具优势。 在产业化与基础设施层,TensorOpera(FedML 商业化)的特点在于继承开源 FedML 的技术积累,提供跨云 GPU 调度、分布式训练、联邦学习与 MLOps 的一体化能力,目标是桥接学术研究与产业应用,服务开发者、中小企业及 Web3/DePIN 生态。总体来看,TensorOpera 相当于 “开源 FedML 的 Hugging Face + W&B 合体”,在全栈分布式训练和联邦学习能力上更完整、通用,区别于以社区、工具或单一行业为核心的其他平台。 在创新层代表中,ChainOpera 与 Flock 都尝试将联邦学习与 Web3 结合,但方向存在明显差异。ChainOpera 构建的是 全栈 AI Agent 平台,涵盖入口、社交、开发和基础设施四层架构,核心价值在于推动用户从“消费者”转变为“共创者”,并通过 AI Terminal 与 Agent Social Network 实现协作式 AGI 与社区共建生态;而 Flock 则更聚焦于 区块链增强型联邦学习(BAFL),强调在去中心化环境下的隐私保护与激励机制,主要面向算力和数据层的协作验证。ChainOpera 更偏向 应用与 Agent 网络层 的落地,Flock 则偏向 底层训练与隐私计算 的强化。 在Agent网络层面,业内最有代表性的项目是Olas Network。ChainOpera 前者源自联邦学习,构建模型—算力—智能体的全栈闭环,并以 Agent Social Network 为实验场探索多智能体的交互与社交协作;Olas Network源于 DAO 协作与 DeFi 生态,定位为去中心化自主服务网络,通过 Pearl推出可直接落地的Defi收益场景,与ChainOpera展现出截然不同的路径。 十、投资逻辑与潜在风险分析 投资逻辑 ChainOpera 的优势首先在于其 技术护城河:从 FedML(联邦学习标杆性开源框架)到 TensorOpera(企业级全栈 AI Infra),再到 ChainOpera(Web3 化 Agent 网络 + DePIN + Tokenomics),形成了独特的连续演进路径,兼具学术积累、产业落地与加密叙事。 在 应用与用户规模 上,AI Terminal 已形成数十万日活用户与千级 Agent 应用生态,并在 BNBChain DApp Bay AI 类目排名第一,具备明确的链上用户增长与真实交易量。其多模态场景覆盖的加密原生领域有望逐步外溢至更广泛的 Web2 用户。 生态合作 方面,ChainOpera 发起 CO-AI Alliance,联合 io.net、Render、TensorOpera、FedML、MindNetwork 等伙伴,构建 GPU、模型、数据、隐私计算等多边网络效应;同时与三星电子合作验证移动端多模态 GenAI,展示了向硬件和边缘 AI 扩展的潜力。 在 代币与经济模型 上,ChainOpera 基于 Proof-of-Intelligence 共识,围绕五大价值流(LaunchPad、Agent API、Model Serving、Contribution、Model Training)分配激励,并通过 1% 平台服务费、激励分配和流动性支持形成正向循环,避免单一“炒币”模式,提升了可持续性。 潜在风险 首先,技术落地难度较高。ChainOpera 所提出的五层去中心化架构跨度大,跨层协同(尤其在大模型分布式推理与隐私训练方面)仍存在性能与稳定性挑战,尚未经过大规模应用验证。 其次,生态用户粘性仍需观察。虽然项目已取得初步用户增长,但 Agent Marketplace 与开发者工具链能否长期维持活跃与高质量供给仍有待检验。目前上线的 Agent Social Network 主要以 LLM 驱动的文本对话为主,用户体验与长期留存仍需进一步提升。若激励机制设计不够精细,可能出现短期活跃度高但长期价值不足的现象。 最后,商业模式的可持续性尚待确认。现阶段收入主要依赖平台服务费与代币循环,稳定现金流尚未形成,与 AgentFi或Payment 等更具金融化或生产力属性的应用相比,当前模式的商业价值仍需进一步验证;同时,移动端与硬件生态仍在探索阶段,市场化前景存在一定不确定性。 免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

从联邦学习到去中心化 Agent 网络:ChainOpera 项目解析

在 6 月份的研报《Crypto AI 的圣杯:去中心化训练的前沿探索》中,我们提及联邦学习(Federated Learning)这一介于分布式训练与去中心化训练之间的“受控去中心化”方案:其核心是数据本地保留、参数集中聚合,满足医疗、金融等隐私与合规需求。与此同时,我们在过往多期研报中持续关注智能体(Agent)网络的兴起——其价值在于通过多智能体的自治与分工,协作完成复杂任务,推动“大模型”向“多智能体生态”的演进。
联邦学习以“数据不出本地、按贡献激励”奠定了多方协作的基础,其分布式基因、透明激励、隐私保障与合规实践为 Agent Network 提供了可直接复用的经验。FedML 团队正是沿着这一路径,将开源基因升级为 TensorOpera(AI产业基础设施层),再演进至 ChainOpera(去中心化 Agent 网络)。当然,Agent Network 并非联邦学习的必然延伸,其核心在于多智能体的自治协作与任务分工,也可直接基于多智能体系统(MAS)、强化学习(RL)或区块链激励机制构建。

一、联邦学习与AI Agent技术栈架构
联邦学习(Federated Learning, FL) 是一种在不集中数据的前提下进行协同训练的框架,其基本原理是由各参与方在本地训练模型,仅上传参数或梯度至协调端进行聚合,从而实现“数据不出域”的隐私合规。经过医疗、金融和移动端等典型场景的实践,联邦学习 已进入较为成熟的商用阶段,但仍面临通信开销大、隐私保护不彻底、设备异构导致收敛效率低等瓶颈。与其他训练模式相比,分布式训练强调算力集中以追求效率与规模,去中心化训练则通过开放算力网络实现完全分布式协作,而联邦学习则处于二者之间,体现为一种 “受控去中心化” 方案:既能满足产业在隐私与合规方面的需求,又提供了跨机构协作的可行路径,更适合工业界过渡性部署架构。

而在整个AI Agent协议栈中,我们在之前的研报中将其划分为三个主要层级,即
基础设施层(Agent Infrastructure Layer):该层为智能体提供最底层的运行支持,是所有 Agent 系统构建的技术根基。
核心模块:包括 Agent Framework(智能体开发与运行框架)和 Agent OS(更底层的多任务调度与模块化运行时),为 Agent 的生命周期管理提供核心能力。支持模块:如 Agent DID(去中心身份)、Agent Wallet & Abstraction(账户抽象与交易执行)、Agent Payment/Settlement(支付与结算能力)。
协调与调度层(Coordination & Execution Layer)关注多智能体之间的协同、任务调度与系统激励机制,是构建智能体系统“群体智能”的关键。
Agent Orchestration:是指挥机制,用于统一调度和管理 Agent 生命周期、任务分配和执行流程,适用于有中心控制的工作流场景。Agent Swarm:是协同结构,强调分布式智能体协作,具备高度自治性、分工能力和弹性协同,适合应对动态环境中的复杂任务。Agent Incentive Layer:构建 Agent 网络的经济激励系统,激发开发者、执行者与验证者的积极性,为智能体生态提供可持续动力。
应用层(Application & Distribution Layer)分发子类:包括Agent Launchpad、Agent Marketplace 和Agent Plugin Network应用子类:涵盖AgentFi、Agent Native DApp、Agent-as-a-Service等消费子类:Agent Social / Consumer Agent为主,面向消费者社交等轻量场景Meme:借 Agent 概念炒作,缺乏实际的技术实现和应用落地,仅营销驱动。
二、联邦学习标杆 FedML 与 TensorOpera 全栈平台
FedML 是最早面向联邦学习(Federated Learning)与分布式训练的开源框架之一,起源于学术团队(USC)并逐步公司化成为 TensorOpera AI 的核心产品。它为研究者和开发者提供跨机构、跨设备的数据协作训练工具,在学术界,FedML 因频繁出现在 NeurIPS、ICML、AAAI 等顶会上,已成为联邦学习研究的通用实验平台;在产业界,FedML在医疗、金融、边缘 AI 及 Web3 AI 等隐私敏感场景中具备较高口碑,被视为 联邦学习领域的标杆性工具链。

TensorOpera是 FedML基于商业化路径升级为面向企业与开发者的全栈 AI 基础设施平台:在保持联邦学习能力的同时,扩展至 GPU Marketplace、模型服务与 MLOps,从而切入大模型与 Agent 时代的更大市场。TensorOpera的整体架构可分为Compute Layer(基础层)、Scheduler Layer(调度层)和MLOps Layer(应用层)三个层级:
1. Compute Layer(底层)
Compute 层是 TensorOpera 的技术基底,延续 FedML 的开源基因,核心功能包括 Parameter Server、Distributed Training、Inference Endpoint 与 Aggregation Server。其价值定位在于提供分布式训练、隐私保护的联邦学习以及可扩展的推理引擎,支撑 “Train / Deploy / Federate” 三大核心能力,覆盖从模型训练、部署到跨机构协作的完整链路,是整个平台的基础层。
2. Scheduler Layer(中层)
Scheduler 层相当于算力交易与调度中枢,由 GPU Marketplace、Provision、Master Agent 与 Schedule & Orchestrate 构成,支持跨公有云、GPU 提供商和独立贡献者的资源调用。这一层是 FedML 升级为 TensorOpera 的关键转折,能够通过智能算力调度与任务编排实现更大规模的 AI 训练和推理,涵盖 LLM 与生成式 AI 的典型场景。同时,该层的 Share & Earn 模式预留了激励机制接口,具备与 DePIN 或 Web3 模式兼容的潜力。
3. MLOps Layer(上层)
MLOps 层是平台直接面向开发者与企业的服务接口,包括 Model Serving、AI Agent 与 Studio 等模块。典型应用涵盖 LLM Chatbot、多模态生成式 AI 和开发者 Copilot 工具。其价值在于将底层算力与训练能力抽象为高层 API 与产品,降低使用门槛,提供即用型 Agent、低代码开发环境与可扩展部署能力,定位上对标 Anyscale、Together、Modal 等新一代 AI Infra 平台,充当从基础设施走向应用的桥梁。

2025年3月,TensorOpera 升级为面向 AI Agent 的全栈平台,核心产品涵盖 AgentOpera AI App、Framework 与 Platform。应用层提供类 ChatGPT 的多智能体入口,框架层以图结构多智能体系统和 Orchestrator/Router 演进为“Agentic OS”,平台层则与 TensorOpera 模型平台和 FedML 深度融合,实现分布式模型服务、RAG 优化和混合端云部署。整体目标是打造 “一个操作系统,一个智能体网络”,让开发者、企业与用户在开放、隐私保护的环境下共建新一代 Agentic AI 生态。
三、ChainOpera AI生态全景:从共创共有者到技术基座
如果说 FedML 是技术内核,提供了联邦学习与分布式训练的开源基因;TensorOpera 将 FedML 的科研成果抽象为可商用的全栈 AI 基础设施,那么 ChainOpera 则是将TensorOpera 的平台能力“上链”,通过 AI Terminal + Agent Social Network + DePIN 模型与算力层 + AI-Native 区块链 打造一个去中心化的 Agent 网络生态。其核心转变在于,TensorOpera 仍主要面向企业与开发者,而 ChainOpera 借助 Web3 化的治理与激励机制,把用户、开发者、GPU/数据提供者纳入共建共治,让 AI Agent 不只是“被使用”,而是“被共创与共同拥有”。

共创者生态(Co-creators)
 ChainOpera AI 通过 Model & GPU Platform 与 Agent Platform 为生态共创提供工具链、基础设施与协调层,支持模型训练、智能体开发、部署与扩展协作。
ChainOpera 生态的共创者涵盖 AI Agent 开发者(设计与运营智能体)、工具与服务提供方(模板、MCP、数据库与 API)、模型开发者(训练与发布模型卡)、GPU 提供方(通过 DePIN 与 Web2 云伙伴贡献算力)、数据贡献者与标注方(上传与标注多模态数据)。三类核心供给——开发、算力与数据——共同驱动智能体网络的持续成长。
共有人生态(Co-owners)
ChainOpera 生态还引入 共有人机制,通过合作与参与共同建设网络。AI Agent 创作者是个人或团队,通过 Agent Platform 设计与部署新型智能体,负责构建、上线并持续维护,从而推动功能与应用的创新。AI Agent 参与者则来自社区,他们通过获取和持有访问单元(Access Units)参与智能体的生命周期,在使用与推广过程中支持智能体的成长与活跃度。两类角色分别代表 供给端与需求端,共同形成生态内的价值共享与协同发展模式。
生态合作伙伴:平台与框架
ChainOpera AI 与多方合作,强化平台的可用性与安全性,并注重 Web3 场景融合:通过 AI Terminal App 联合钱包、算法与聚合平台实现智能服务推荐;在 Agent Platform 引入多元框架与零代码工具,降低开发门槛;依托 TensorOpera AI 进行模型训练与推理;并与 FedML 建立独家合作,支持跨机构、跨设备的隐私保护训练。整体上,形成兼顾 企业级应用 与 Web3 用户体验 的开放生态体系。
硬件入口:AI 硬件与合作伙伴(AI Hardware & Partners)
通过 DeAI Phone、可穿戴与 Robot AI 等合作伙伴,ChainOpera 将区块链与 AI 融合进智能终端,实现 dApp 交互、端侧训练与隐私保护,逐步形成去中心化 AI 硬件生态。
中枢平台与技术基座:TensorOpera GenAI & FedML
TensorOpera 提供覆盖 MLOps、Scheduler、Compute 的全栈 GenAI 平台;其子平台 FedML 从学术开源成长为产业化框架,强化了 AI “随处运行、任意扩展” 的能力。
ChainOpera AI 生态体系

四、ChainOpera核心产品及全栈式 AI Agent 基础设施
2025年6月,ChainOpera正式上线 AI Terminal App 与去中心化技术栈,定位为“去中心化版 OpenAI”,其核心产品涵盖四大模块:应用层(AI Terminal & Agent Network)、开发者层(Agent Creator Center)、模型与 GPU 层(Model & Compute Network)、以及 CoAI 协议与专用链,覆盖了从用户入口到底层算力与链上激励的完整闭环。

AI Terminal App 已集成 BNBChain ,支持链上交易与 DeFi 场景的 Agent。Agent Creator Center 面向开发者开放,提供 MCP/HUB、知识库与 RAG 等能力,社区智能体持续入驻;同时发起 CO-AI Alliance,联动 io.net、Render、TensorOpera、FedML、MindNetwork 等伙伴。

根据BNB DApp Bay 近 30 日的链上数据显示,其独立用户 158.87K,近30日交易量260万,在在 BSC「AI Agent」分类中排名全站第二,显示出强劲的链上活跃度。
Super AI Agent App – AI Terminal (https://chat.chainopera.ai/)
作为去中心化 ChatGPT 与 AI 社交入口,AI Terminal 提供多模态协作、数据贡献激励、DeFi 工具整合、跨平台助手,并支持 AI Agent 协作与隐私保护(Your Data, Your Agent)。用户可在移动端直接调用开源大模型 DeepSeek-R1 与社区智能体,交互过程中语言 Token 与加密 Token 在链上透明流转。其价值在于让用户从“内容消费者”转变为“智能共创者”,并能在 DeFi、RWA、PayFi、电商等场景中使用专属智能体网络。
AI Agent Social Network (https://chat.chainopera.ai/agent-social-network)
定位类似 LinkedIn + Messenger,但面向 AI Agent 群体。通过虚拟工作空间与 Agent-to-Agent 协作机制(MetaGPT、ChatDEV、AutoGEN、Camel),推动单一 Agent 演化为多智能体协作网络,覆盖金融、游戏、电商、研究等应用,并逐步增强记忆与自主性。
AI Agent Developer Platform (https://agent.chainopera.ai/)
为开发者提供“乐高式”创作体验。支持零代码与模块化扩展,区块链合约确保所有权,DePIN + 云基础设施降低门槛,Marketplace 提供分发与发现渠道。其核心在于让开发者快速触达用户,生态贡献可透明记录并获得激励。
AI Model & GPU Platform (https://platform.chainopera.ai/)
作为基础设施层,结合 DePIN 与联邦学习,解决 Web3 AI 依赖中心化算力的痛点。通过分布式 GPU、隐私保护的数据训练、模型与数据市场,以及端到端 MLOps,支持多智能体协作与个性化 AI。其愿景是推动从“大厂垄断”到“社区共建”的基建范式转移。

五、ChainOpera AI 的路线图规划
除去已正式上线全栈 AI Agent平台外, ChainOpera AI 坚信通用人工智能(AGI)来自 多模态、多智能体的协作网络。因此其远期路线图规划分为四个阶段:

阶段一(Compute → Capital):构建去中心化基础设施,包括 GPU DePIN 网络、联邦学习与分布式训练/推理平台,并引入 模型路由器(Model Router)协调多端推理;通过激励机制让算力、模型与数据提供方获得按使用量分配的收益。阶段二(Agentic Apps → Collaborative AI Economy):推出 AI Terminal、Agent Marketplace 与 Agent Social Network,形成多智能体应用生态;通过 CoAI 协议 连接用户、开发者与资源提供者,并引入 用户需求–开发者匹配系统 与信用体系,推动高频交互与持续经济活动。阶段三(Collaborative AI → Crypto-Native AI):在 DeFi、RWA、支付、电商等领域落地,同时拓展至 KOL 场景与个人数据交换;开发面向金融/加密的专用 LLM,并推出 Agent-to-Agent 支付与钱包系统,推动“Crypto AGI”场景化应用。阶段四(Ecosystems → Autonomous AI Economies):逐步演进为自治子网经济,各子网围绕 应用、基础设施、算力、模型与数据 独立治理、代币化运作,并通过跨子网协议协作,形成多子网协同生态;同时从 Agentic AI 迈向 Physical AI(机器人、自动驾驶、航天)。
免责声明:本路线图仅供参考,时间表与功能可能因市场环境动态调整,不构成交付保证承诺。
七、代币激励与协议治理
目前 ChainOpera 尚未公布完整的代币激励计划,但其 CoAI 协议以“共创与共拥有”为核心,通过区块链与 Proof-of-Intelligence 机制实现透明可验证的贡献记录:开发者、算力、数据与服务提供者的投入按标准化方式计量并获得回报,用户使用服务、资源方支撑运行、开发者构建应用,所有参与方共享增长红利;平台则以 1% 服务费、奖励分配和流动性支持维持循环,推动开放、公平、协作的去中心化 AI 生态。
Proof-of-Intelligence 学习框架
Proof-of-Intelligence (PoI) 是 ChainOpera 在 CoAI 协议下提出的核心共识机制,旨在为去中心化 AI 构建提供透明、公平且可验证的激励与治理体系。其基于Proof-of-Contribution(贡献证明) 的区块链协作机器学习框架,旨在解决联邦学习(FL)在实际应用中存在的激励不足、隐私风险与可验证性缺失问题。该设计以智能合约为核心,结合去中心化存储(IPFS)、聚合节点和零知识证明(zkSNARKs),实现了五大目标:① 按贡献度进行公平奖励分配,确保训练者基于实际模型改进获得激励;② 保持数据本地化存储,保障隐私不外泄;③ 引入鲁棒性机制,对抗恶意训练者的投毒或聚合攻击;④ 通过 ZKP 确保模型聚合、异常检测与贡献评估等关键计算的可验证性;⑤ 在效率与通用性上适用于异构数据和不同学习任务。

全栈式 AI 中代币价值
ChainOpera 的代币机制围绕五大价值流(LaunchPad、Agent API、Model Serving、Contribution、Model Training)运作,核心是 服务费、贡献确认与资源分配,而非投机回报。
AI 用户:用代币访问服务或订阅应用,并通过提供/标注/质押数据贡献生态。Agent/应用开发者:使用平台算力与数据进行开发,并因其贡献的 Agent、应用或数据集获得协议认可。资源提供者:贡献算力、数据或模型,获得透明记录与激励。治理参与者(社区 & DAO):通过代币参与投票、机制设计与生态协调。协议层(COAI):通过服务费维持可持续发展,利用自动化分配机制平衡供需。节点与验证者:提供验证、算力与安全服务,确保网络可靠性。
协议治理
ChainOpera 采用 DAO 治理,通过质押代币参与提案与投票,确保决策透明与公平。治理机制包括:声誉系统(验证并量化贡献)、社区协作(提案与投票推动生态发展)、参数调整(数据使用、安全与验证者问责)。整体目标是避免权力集中,保持系统稳定与社区共创。
八、团队背景及项目融资
ChainOpera项目由在联邦学习领域具有深厚造诣的 Salman Avestimehr 教授 与 何朝阳(Aiden)博士 共同创立。其他核心团队成员背景横跨 UC Berkeley、Stanford、USC、MIT、清华大学 以及 Google、Amazon、Tencent、Meta、Apple 等顶尖学术与科技机构,兼具学术研究与产业实战能力。截止目前,ChainOpera AI 团队规模已超过 40 人。
联合创始人:Salman Avestimehr
Salman Avestimehr 教授是 南加州大学(USC)电气与计算机工程系的 Dean’s Professor,并担任 USC-Amazon Trusted AI 中心创始主任,同时领导 USC 信息论与机器学习实验室(vITAL)。他是 FedML 联合创始人兼 CEO,并在 2022 年共同创立了 TensorOpera/ChainOpera AI。
Salman Avestimehr 教授毕业于 UC Berkeley EECS 博士(最佳论文奖)。作为IEEE Fellow,在信息论、分布式计算与联邦学习领域发表高水平论文 300+ 篇,引用数超 30,000,并获 PECASE、NSF CAREER、IEEE Massey Award 等多项国际荣誉。其主导创建 FedML 开源框架,广泛应用于医疗、金融和隐私计算,并成为 TensorOpera/ChainOpera AI 的核心技术基石。
联合创始人:Dr. Aiden Chaoyang He
Dr. Aiden Chaoyang He 是 TensorOpera/ChainOpera AI 联合创始人兼总裁,南加州大学(USC)计算机科学博士、FedML 原始创建者。其研究方向涵盖分布式与联邦学习、大规模模型训练、区块链与隐私计算。在创业之前,他曾在 Meta、Amazon、Google、Tencent 从事研发,并在腾讯、百度、华为担任核心工程与管理岗位,主导多个互联网级产品与 AI 平台的落地。
学术与产业方面,Aiden 已发表 30 余篇论文,Google Scholar 引用超过 13,000,并获 Amazon Ph.D. Fellowship、Qualcomm Innovation Fellowship 及 NeurIPS、AAAI 最佳论文奖。他主导开发的 FedML 框架是联邦学习领域最广泛使用的开源项目之一,支撑 日均 270 亿次请求;并作为核心作者提出 FedNLP 框架、混合模型并行训练方法,被广泛应用于Sahara AI等去中心化AI项目。

2024 年 12 月,ChainOpera AI 宣布完成 350 万美元种子轮融资,累计与 TensorOpera 共计融资 1700 万美元,资金将用于构建面向去中心化 AI Agent 的区块链 L1 与 AI 操作系统。本轮融资由 Finality Capital、Road Capital、IDG Capital 领投,跟投方包括 Camford VC、ABCDE Capital、Amber Group、Modular Capital 等,亦获得 Sparkle Ventures、Plug and Play、USC 以及 EigenLayer 创始人 Sreeram Kannan、BabylonChain 联合创始人 David Tse 等知名机构和个人投资人支持。团队表示,此轮融资将加速实现 “AI 资源贡献者、开发者与用户共同 co-own 和 co-create 的去中心化 AI 生态” 愿景。
九、联邦学习与AI Agent市场格局分析
联邦学习框架主要有四个代表:FedML、Flower、TFF、OpenFL。其中,FedML 最全栈,兼具联邦学习、分布式大模型训练与 MLOps,适合产业落地;Flower 轻量易用,社区活跃,偏教学与小规模实验;TFF 深度依赖 TensorFlow,学术研究价值高,但产业化弱;OpenFL 聚焦医疗/金融,强调隐私合规,生态较封闭。总体而言,FedML 代表工业级全能路径,Flower 注重易用性与教育,TFF 偏学术实验,OpenFL 则在垂直行业合规性上具优势。
在产业化与基础设施层,TensorOpera(FedML 商业化)的特点在于继承开源 FedML 的技术积累,提供跨云 GPU 调度、分布式训练、联邦学习与 MLOps 的一体化能力,目标是桥接学术研究与产业应用,服务开发者、中小企业及 Web3/DePIN 生态。总体来看,TensorOpera 相当于 “开源 FedML 的 Hugging Face + W&B 合体”,在全栈分布式训练和联邦学习能力上更完整、通用,区别于以社区、工具或单一行业为核心的其他平台。
在创新层代表中,ChainOpera 与 Flock 都尝试将联邦学习与 Web3 结合,但方向存在明显差异。ChainOpera 构建的是 全栈 AI Agent 平台,涵盖入口、社交、开发和基础设施四层架构,核心价值在于推动用户从“消费者”转变为“共创者”,并通过 AI Terminal 与 Agent Social Network 实现协作式 AGI 与社区共建生态;而 Flock 则更聚焦于 区块链增强型联邦学习(BAFL),强调在去中心化环境下的隐私保护与激励机制,主要面向算力和数据层的协作验证。ChainOpera 更偏向 应用与 Agent 网络层 的落地,Flock 则偏向 底层训练与隐私计算 的强化。

在Agent网络层面,业内最有代表性的项目是Olas Network。ChainOpera 前者源自联邦学习,构建模型—算力—智能体的全栈闭环,并以 Agent Social Network 为实验场探索多智能体的交互与社交协作;Olas Network源于 DAO 协作与 DeFi 生态,定位为去中心化自主服务网络,通过 Pearl推出可直接落地的Defi收益场景,与ChainOpera展现出截然不同的路径。

十、投资逻辑与潜在风险分析
投资逻辑
ChainOpera 的优势首先在于其 技术护城河:从 FedML(联邦学习标杆性开源框架)到 TensorOpera(企业级全栈 AI Infra),再到 ChainOpera(Web3 化 Agent 网络 + DePIN + Tokenomics),形成了独特的连续演进路径,兼具学术积累、产业落地与加密叙事。
在 应用与用户规模 上,AI Terminal 已形成数十万日活用户与千级 Agent 应用生态,并在 BNBChain DApp Bay AI 类目排名第一,具备明确的链上用户增长与真实交易量。其多模态场景覆盖的加密原生领域有望逐步外溢至更广泛的 Web2 用户。
生态合作 方面,ChainOpera 发起 CO-AI Alliance,联合 io.net、Render、TensorOpera、FedML、MindNetwork 等伙伴,构建 GPU、模型、数据、隐私计算等多边网络效应;同时与三星电子合作验证移动端多模态 GenAI,展示了向硬件和边缘 AI 扩展的潜力。
在 代币与经济模型 上,ChainOpera 基于 Proof-of-Intelligence 共识,围绕五大价值流(LaunchPad、Agent API、Model Serving、Contribution、Model Training)分配激励,并通过 1% 平台服务费、激励分配和流动性支持形成正向循环,避免单一“炒币”模式,提升了可持续性。
潜在风险
首先,技术落地难度较高。ChainOpera 所提出的五层去中心化架构跨度大,跨层协同(尤其在大模型分布式推理与隐私训练方面)仍存在性能与稳定性挑战,尚未经过大规模应用验证。
其次,生态用户粘性仍需观察。虽然项目已取得初步用户增长,但 Agent Marketplace 与开发者工具链能否长期维持活跃与高质量供给仍有待检验。目前上线的 Agent Social Network 主要以 LLM 驱动的文本对话为主,用户体验与长期留存仍需进一步提升。若激励机制设计不够精细,可能出现短期活跃度高但长期价值不足的现象。
最后,商业模式的可持续性尚待确认。现阶段收入主要依赖平台服务费与代币循环,稳定现金流尚未形成,与 AgentFi或Payment 等更具金融化或生产力属性的应用相比,当前模式的商业价值仍需进一步验证;同时,移动端与硬件生态仍在探索阶段,市场化前景存在一定不确定性。

免责声明:本文在创作过程中借助了 ChatGPT-5 的 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
OpenLedge研报:数据与模型可变现的AI链一、引言 | Crypto AI 的模型层跃迁 数据、模型与算力是 AI 基础设施的三大核心要素,类比燃料(数据)、引擎(模型)、能源(算力)缺一不可。与传统 AI 行业的基础设施演进路径类似,Crypto AI 领域也经历了相似的阶段。2024 年初,市场一度被去中心化 GPU 项目所主导(Akash、Render、io.net 等),普遍强调“拼算力”的粗放式增长逻辑。而进入 2025 年后,行业关注点逐步上移至模型与数据层,标志着 Crypto AI 正从底层资源竞争过渡到更具可持续性与应用价值的中层构建。 通用大模型(LLM)vs 特化模型(SLM) 传统的大型语言模型(LLM)训练高度依赖大规模数据集与复杂的分布式架构,参数规模动辄 70B~500B,训练一次的成本常高达数百万美元。而SLM(Specialized Language Model)作为一种可复用基础模型的轻量微调范式,通常基于 LLaMA、Mistral、DeepSeek 等开源模型,结合少量高质量专业数据及 LoRA 等技术,快速构建具备特定领域知识的专家模型,显著降低训练成本与技术门槛。 值得注意的是,SLM 并不会被集成进 LLM 权重中,而是通过Agent 架构调用、插件系统动态路由、LoRA 模块热插拔、RAG(检索增强生成)等方式与 LLM 协作运行。这一架构既保留了 LLM 的广覆盖能力,又通过精调模块增强了专业表现,形成了高度灵活的组合式智能系统。 Crypto AI 在模型层的价值与边界 Crypto AI 项目本质上难以直接提升大语言模型(LLM)的核心能力,核心原因在于 技术门槛过高:训练 Foundation Model 所需的数据规模、算力资源与工程能力极其庞大,目前仅有美国(OpenAI等)与中国(DeepSeek等)等科技巨头具备相应能力。开源生态局限:虽然主流基础模型如 LLaMA、Mixtral 已开源,但真正推动模型突破的关键依然集中于科研机构与闭源工程体系,链上项目在核心模型层的参与空间有限。 然而,在开源基础模型之上,Crypto AI 项目仍可通过精调特化语言模型(SLM),并结合 Web3 的可验证性与激励机制实现价值延伸。作为AI 产业链的“周边接口层”,体现于两个核心方向: 可信验证层:通过链上记录模型生成路径、数据贡献与使用情况,增强 AI 输出的可追溯性与抗篡改能力。激励机制: 借助原生 Token,用于激励数据上传、模型调用、智能体(Agent)执行等行为,构建模型训练与服务的正向循环。 AI 模型类型分类与 区块链适用性分析 由此可见,模型类Crypto AI 项目的可行落点主要集中在小型 SLM 的轻量化精调、RAG 架构的链上数据接入与验证、以及 Edge 模型的本地部署与激励上。结合区块链的可验证性与代币机制,Crypto 能为这些中低资源模型场景提供特有价值,形成 AI“接口层”的差异化价值。 基于数据与模型的区块链AI链,可对每一条数据和模型的贡献来源进行清晰、不可篡改的上链记录,显著提升数据可信度与模型训练的可溯性。同时,通过智能合约机制,在数据或模型被调用时自动触发奖励分发,将 AI 行为转化为可计量、可交易的代币化价值,构建可持续的激励体系。此外,社区用户还可通过代币投票评估模型性能、参与规则制定与迭代,完善去中心化治理架构。 二、项目概述 | OpenLedger 的AI链愿景 @Openledger 是当前市场上为数不多专注于数据与模型激励机制的区块链 AI 项目。它率先提出“Payable AI”的概念,旨在构建一个公平、透明且可组合的 AI 运行环境,激励数据贡献者、模型开发者与 AI 应用构建者在同一平台协作,并根据实际贡献获得链上收益。 @Openledger 提供了从“数据提供”到“模型部署”再到“调用分润”的全链条闭环,其核心模块包括: Model Factory:无需编程,即可基于开源 LLM 使用 LoRA 微调训练并部署定制模型;OpenLoRA:支持千模型共存,按需动态加载,显著降低部署成本;PoA(Proof of Attribution):通过链上调用记录实现贡献度量与奖励分配;Datanets:面向垂类场景的结构化数据网络,由社区协作建设与验证;模型提案平台(Model Proposal Platform):可组合、可调用、可支付的链上模型市场。 通过以上模块,@Openledger 构建了一个数据驱动、模型可组合的“智能体经济基础设施”,推动 AI 价值链的链上化。 而在区块链技术采用上,@Openledger 以 OP Stack + EigenDA 为底座,为 AI 模型构建了高性能、低成本、可验证的数据与合约运行环境。 基于 OP Stack 构建: 基于 Optimism 技术栈,支持高吞吐与低费用执行;在以太坊主网上结算: 确保交易安全性与资产完整性;EVM 兼容: 方便开发者基于 Solidity 快速部署与扩展;EigenDA 提供数据可用性支持:显著降低存储成本,保障数据可验证性。 相比于 NEAR 这类更偏底层、主打数据主权与 “AI Agents on BOS” 架构的通用型 AI 链,@Openledger 更专注于构建面向数据与模型激励的 AI 专用链,致力于让模型的开发与调用在链上实现可追溯、可组合与可持续的价值闭环。它是 Web3 世界中的模型激励基础设施,结合 HuggingFace 式的模型托管、Stripe 式的使用计费与 Infura 式的链上可组合接口,推动“模型即资产”的实现路径。 三、OpenLedger的核心组件与技术架构 3.1 Model Factory,无需代码模型工厂 ModelFactory 是 @Openledger 生态下的一个大型语言模型(LLM)微调平台。与传统微调框架不同,ModelFactory 提供纯图形化界面操作,无需命令行工具或 API 集成。用户可以基于在 @Openledger 上完成授权与审核的数据集,对模型进行微调。实现了数据授权、模型训练与部署的一体化工作流,其核心流程包括: 数据访问控制: 用户提交数据请求,提供者审核批准,数据自动接入模型训练界面。模型选择与配置: 支持主流 LLM(如 LLaMA、Mistral),通过 GUI 配置超参数。轻量化微调: 内置 LoRA / QLoRA 引擎,实时展示训练进度。模型评估与部署: 内建评估工具,支持导出部署或生态共享调用。交互验证接口: 提供聊天式界面,便于直接测试模型问答能力。RAG 生成溯源: 回答带来源引用,增强信任与可审计性。 Model Factory 系统架构包含六大模块,贯穿身份认证、数据权限、模型微调、评估部署与 RAG 溯源,打造安全可控、实时交互、可持续变现的一体化模型服务平台。 ModelFactory目前支持的大语言模型能力简表如下: LLaMA 系列:生态最广、社区活跃、通用性能强,是当前最主流的开源基础模型之一。Mistral:架构高效、推理性能极佳,适合部署灵活、资源有限的场景。Qwen:阿里出品,中文任务表现优异,综合能力强,适合国内开发者首选。ChatGLM:中文对话效果突出,适合垂类客服和本地化场景。Deepseek:在代码生成和数学推理上表现优越,适用于智能开发辅助工具。Gemma:Google 推出的轻量模型,结构清晰,易于快速上手与实验。Falcon:曾是性能标杆,适合基础研究或对比测试,但社区活跃度已减。BLOOM:多语言支持较强,但推理性能偏弱,适合语言覆盖型研究。GPT-2:经典早期模型,仅适合教学和验证用途,不建议实际部署使用。 虽然@Openledger 的模型组合并未包含最新的高性能 MoE 模型或多模态模型,但其策略并不落伍,而是基于链上部署的现实约束(推理成本、RAG适配、LoRA兼容、EVM环境)所做出的「实用优先」配置。 Model Factory 作为无代码工具链,所有模型都内置了贡献证明机制,确保数据贡献者和模型开发者的权益,具有低门槛、可变现与可组合性的优点,与传统模型开发工具相比较: 对于开发者:提供模型孵化、分发、收入的完整路径;对于平台:形成模型资产流通与组合生态;对于应用者:可以像调用 API 一样组合使用模型或 Agent。 3.2 OpenLoRA,微调模型的链上资产化 LoRA(Low-Rank Adaptation)是一种高效的参数微调方法,通过在预训练大模型中插入“低秩矩阵”来学习新任务,而不修改原模型参数,从而大幅降低训练成本和存储需求。传统大语言模型(如 LLaMA、GPT-3)通常拥有数十亿甚至千亿参数。要将它们用于特定任务(如法律问答、医疗问诊),就需要进行微调(fine-tuning)。LoRA 的核心策略是:“冻结原始大模型的参数,只训练插入的新参数矩阵。”,其参数高效、训练快速、部署灵活,是当前最适合 Web3 模型部署与组合调用的主流微调方法。 OpenLoRA 是 @Openledger 构建的一套专为 多模型部署与资源共享 而设计的轻量级推理框架。它核心目标是解决当前 AI 模型部署中常见的高成本、低复用、GPU 资源浪费等问题,推动“可支付 AI”(Payable AI)的落地执行。 OpenLoRA 系统架构核心组件,基于模块化设计,覆盖模型存储、推理执行、请求路由等关键环节,实现高效、低成本的多模型部署与调用能力: LoRA Adapter 存储模块(LoRA Adapters Storage):微调后的 LoRA adapter 被托管在 @Openledger 上,实现按需加载,避免将所有模型预载入显存,节省资源。模型托管与动态融合层(Model Hosting & Adapter Merging Layer):所有微调模型共用基础大模型(base model),推理时 LoRA adapter 动态合并,支持多个 adapter 联合推理(ensemble),提升性能。推理引擎(Inference Engine):集成Flash-Attention、Paged-Attention、SGMV 优化等多项 CUDA 优化技术。请求路由与流式输出模块(Request Router & Token Streaming): 根据请求中所需模型动态路由至正确 adapter, 通过优化内核实现 token 级别的流式生成。 OpenLoRA 的推理流程属于技术层面“成熟通用”的模型服务”流程,如下: 基础模型加载:系统预加载如 LLaMA 3、Mistral 等基础大模型至 GPU 显存中。LoRA 动态检索:接收请求后,从 Hugging Face、Predibase 或本地目录动态加载指定 LoRA adapter。适配器合并激活:通过优化内核将 adapter 与基础模型实时合并,支持多 adapter 组合推理。推理执行与流式输出:合并后的模型开始生成响应,采用 token 级流式输出降低延迟,结合量化保障效率与精度。推理结束与资源释放:推理完成后自动卸载 adapter,释放显存资源。确保可在单 GPU 上高效轮转并服务数千个微调模型,支持模型高效轮转。 OpenLoRA 通过一系列底层优化手段,显著提升了多模型部署与推理的效率。其核心包括动态 LoRA 适配器加载(JIT loading),有效降低显存占用;张量并行(Tensor Parallelism)与 Paged Attention 实现高并发与长文本处理;支持多模型融合(Multi-Adapter Merging)多适配器合并执行,实现 LoRA 组合推理(ensemble);同时通过 Flash Attention、预编译 CUDA 内核和 FP8/INT8 量化技术,对底层 CUDA 优化与量化支持,进一步提升推理速度并降低延迟。这些优化使得 OpenLoRA 能在单卡环境下高效服务数千个微调模型,兼顾性能、可扩展性与资源利用率。 OpenLoRA 定位不仅是一个高效的 LoRA 推理框架,更是将模型推理与 Web3 激励机制深度融合,目标是将 LoRA 模型变成可调用、可组合、可分润的 Web3 资产。 模型即资产(Model-as-Asset):OpenLoRA 不只是部署模型,而是赋予每个微调模型链上身份(Model ID),并将其调用行为与经济激励绑定,实现“调用即分润”。多 LoRA 动态合并 + 分润归属:支持多个 LoRA adapter 的动态组合调用,允许不同模型组合形成新的 Agent 服务,同时系统可基于 PoA(Proof of Attribution)机制按调用量为每个适配器精确分润。支持长尾模型的“多租户共享推理”:通过动态加载与显存释放机制,OpenLoRA 能在单卡环境下服务数千个 LoRA 模型,特别适合 Web3 中小众模型、个性化 AI 助手等高复用、低频调用场景。 此外,@Openledger 发布了其对OpenLoRA 性能指标的未来展望,相比传统全参数模型部署,其显存占用大幅降低至 8–12GB;模型切换时间理论上可低于 100ms;吞吐量可达 2000+ tokens/sec;延迟控制在 20–50ms 。整体而言,这些性能指标在技术上具备可达性,但更接近“上限表现”,在实际生产环境中,性能表现可能会受到硬件、调度策略和场景复杂度的限制,应被视为“理想上限”而非“稳定日常”。 3.3 Datanets(数据网络),从数据主权到数据智能 高质量、领域专属的数据成为构建高性能模型的关键要素。Datanets 是 @Openledger “数据即资产”的基础设施,用于收集和管理特定领域的数据集,用于聚合、验证与分发特定领域数据的去中心化网络,为 AI 模型的训练与微调提供高质量数据源。每个 Datanet 就像一个结构化的数据仓库,由贡献者上传数据,并通过链上归属机制确保数据可溯源、可信任,通过激励机制与透明的权限控制,Datanets 实现了模型训练所需数据的社区共建与可信使用。 与聚焦数据主权的 Vana 等项目相比,@Openledger 并不止于“数据收集”,而是通过 Datanets(协作式标注与归属数据集)、Model Factory(支持无代码微调的模型训练工具)、OpenLoRA(可追踪、可组合的模型适配器)三大模块,将数据价值延展至模型训练与链上调用,构建“从数据到智能(data-to-intelligence)”的完整闭环。Vana 强调“谁拥有数据”,而 @Openledger 则聚焦“数据如何被训练、调用并获得奖励”,在 Web3 AI 生态中分别占据数据主权保障与数据变现路径的关键位置。 3.4 Proof of Attribution(贡献证明):重塑利益分配的激励层 Proof of Attribution(PoA)是 @Openledger 实现数据归属与激励分配的核心机制,通过链上加密记录,将每一条训练数据与模型输出建立可验证的关联,确保贡献者在模型调用中获得应得回报,其数据归属与激励流程概览如下: 数据提交:用户上传结构化、领域专属的数据集,并上链确权。影响评估:系统根据数据特征影响与贡献者声誉,在每次推理时评估其价值。训练验证:训练日志记录每条数据的实际使用情况,确保贡献可验证。激励分配:根据数据影响力,向贡献者发放与效果挂钩的 Token 奖励。质量治理:对低质、冗余或恶意数据进行惩罚,保障模型训练质量。 与Bittensor 子网架构结合评分机制的区块链通用型激励网络相比较,@Openledger 则专注于模型层面的价值捕获与分润机制。PoA 不仅是一个激励分发工具,更是一个面向 透明度、来源追踪与多阶段归属 的框架:它将数据的上传、模型的调用、智能体的执行过程全程上链记录,实现端到端的可验证价值路径。这种机制使得每一次模型调用都能溯源至数据贡献者与模型开发者,从而实现链上 AI 系统中真正的“价值共识”与“收益可得”。 RAG(Retrieval-Augmented Generation) 是一种结合检索系统与生成式模型的 AI 架构,它旨在解决传统语言模型“知识封闭”“胡编乱造”的问题,通过引入外部知识库增强模型生成能力,使输出更加真实、可解释、可验证。RAG Attribution 是 @Openledger 在检索增强生成(Retrieval-Augmented Generation)场景下建立的数据归属与激励机制,确保模型输出的内容可追溯、可验证,贡献者可激励,最终实现生成可信化与数据透明化,其流程包括: 用户提问 → 检索数据:AI 接收到问题后,从 @Openledger 数据索引中检索相关内容。数据被调用并生成回答:检索到的内容被用于生成模型回答,并被链上记录调用行为。贡献者获得奖励:数据被使用后,其贡献者获得按金额与相关性计算的激励。生成结果带引用:模型输出附带原始数据来源链接,实现透明问答与可验证内容。 @Openledger 的 RAG Attribution 让每一次 AI 回答都可追溯至真实数据来源,贡献者按引用频次获得激励,实现“知识有出处、调用可变现”。这一机制不仅提升了模型输出的透明度,也为高质量数据贡献构建了可持续的激励闭环,是推动可信 AI 和数据资产化的关键基础设施。 四、OpenLedger项目进展与生态合作 目前@Openledger 已上线测试网,数据智能层(Data Intelligence Layer) 是 @Openledger 测试网的首个阶段,旨在构建一个由社区节点共同驱动的互联网数据仓库。这些数据经过筛选、增强、分类和结构化处理,最终形成适用于大型语言模型(LLM)的辅助智能,用于构建 @Openledger 上的领域 AI 模型。社区成员可运行边缘设备节点,参与数据采集与处理,节点将使用本地计算资源执行数据相关任务,参与者根据活跃度和任务完成度获得积分奖励。而这些积分将在未来转换为 OPEN 代币,具体兑换比例将在代币生成事件(TGE)前公布。 Epoch 2 测试网重点推出了 Datanets 数据网络机制,该阶段仅限白名单用户参与,需完成预评估以解锁任务。任务涵盖数据验证、分类等,完成后根据准确率和难度获得积分,并通过排行榜激励高质量贡献,官网目前提供的可参与数据模型如下: 而@Openledger 更为长远的路线图规划,从数据采集、模型构建走向 Agent 生态,逐步实现“数据即资产、模型即服务、Agent 即智能体”的完整去中心化 AI 经济闭环。 Phase 1 · 数据智能层(Data Intelligence Layer): 社区通过运行边缘节点采集和处理互联网数据,构建高质量、持续更新的数据智能基础层。Phase 2 · 社区数据贡献(Community Contributions): 社区参与数据验证与反馈,共同打造可信的黄金数据集(Golden Dataset),为模型训练提供优质输入。Phase 3 · 模型构建与归属声明(Build Models & Claim): 基于黄金数据,用户可训练专用模型并确权归属,实现模型资产化与可组合的价值释放。Phase 4 · 智能体创建(Build Agents): 基于已发布模型,社区可创建个性化智能体(Agents),实现多场景部署与持续协同演进。 @Openledger 的生态合作伙伴涵盖算力、基础设施、工具链与 AI 应用。其合作伙伴包括 Aethir、Ionet、0G 等去中心化算力平台,AltLayer、Etherfi 及 EigenLayer 上的 AVS 提供底层扩容与结算支持;Ambios、Kernel、Web3Auth、Intract 等工具提供身份验证与开发集成能力;在 AI 模型与智能体方面,@Openledger 联合 Giza、Gaib、Exabits、FractionAI、Mira、NetMind 等项目共同推进模型部署与智能体落地,构建一个开放、可组合、可持续的 Web3 AI 生态系统。 过去一年,#OpenLedger 在 Token2049 Singapore、Devcon Thailand、Consensus Hong Kong 及 ETH Denver 期间连续主办 Crypto AI 主题的 DeAI Summit 峰会,邀请了众多去中心化 AI 领域的核心项目与技术领袖参与。作为少数能够持续策划高质量行业活动的基础设施项目之一,#OpenLedger 借助 DeAI Summit 有效强化了其在开发者社区与 Web3 AI 创业生态中的品牌认知与专业声誉,为其后续生态拓展与技术落地奠定了良好的行业基础。 五、融资及团队背景 @Openledger 于 2024 年 7 月完成了 1120 万美元的种子轮融资,投资方包括 Polychain Capital、Borderless Capital、Finality Capital、Hashkey,以及多位知名天使投资人,如 Sreeram Kannan(EigenLayer)、Balaji Srinivasan、Sandeep(Polygon)、Kenny(Manta)、Scott(Gitcoin)、Ajit Tripathi(Chainyoda)和 Trevor。资金将主要用于推进 @Openledger 的 AI Chain网络建设、模型激励机制、数据基础层及 Agent 应用生态的全面落地。 @Openledger 由 Ram Kumar 创立,他是 #OpenLedger 的核心贡献者,同时是一位常驻旧金山的创业者,在 AI/ML 和区块链技术领域拥有坚实的技术基础。他为项目带来了市场洞察力、技术专长与战略领导力的有机结合。Ram 曾联合领导一家区块链与 AI/ML 研发公司,年营收超过 3500 万美元,并在推动关键合作方面发挥了重要作用,其中包括与沃尔玛子公司达成的一项战略合资项目。他专注于生态系统构建与高杠杆合作,致力于加速各行业的现实应用落地。 六、代币经济模型设计及治理 $OPEN 是 @Openledger 生态的核心功能型代币,赋能网络治理、交易运行、激励分发与 AI Agent 运营,是构建 AI 模型与数据在链上可持续流通的经济基础,目前官方公布的代币经济学尚属早期设计阶段,细节尚未完全明确,但随着项目即将迈入代币生成事件(TGE)阶段,其社区增长、开发者活跃度与应用场景实验正在亚洲、欧洲与中东地区持续加速推进: 治理与决策:Open持有者可参与模型资助、Agent 管理、协议升级与资金使用的治理投票。交易燃料与费用支付:作为 @Openledger 网络的原生 gas 代币,支持 AI 原生的定制费率机制。激励与归属奖励:贡献高质量数据、模型或服务的开发者可根据使用影响获得Open分润。跨链桥接能力:Open支持 L2 ↔ L1(Ethereum)桥接,提升模型和 Agent 的多链可用性。AI Agent 质押机制:AI Agent 运行需质押 $OPEN ,表现不佳将被削减质押,激励高效、可信的服务输出。 与许多影响力与持币数量挂钩的代币治理协议不同,@Openledger 引入了一种基于贡献价值的治理机制。其投票权重与实际创造的价值相关,而非单纯的资本权重,优先赋能那些参与模型和数据集构建、优化与使用的贡献者。这种架构设计有助于实现治理的长期可持续性,防止投机行为主导决策,真正契合其“透明、公平、社区驱动”的去中心化 AI 经济愿景。 七、数据、模型与激励市场格局及竞品比较 @Openledger 作为“可支付 AI(Payable AI)”模型激励基础设施,致力于为数据贡献者与模型开发者提供可验证、可归属、可持续的价值变现路径。其围绕链上部署、调用激励和智能体组合机制,构建出具有差异化特征的模块体系,在当前 Crypto AI 赛道中独树一帜。虽然尚无项目在整体架构上完全重合,但在协议激励、模型经济与数据确权等关键维度,OpenLedger 与多个代表性项目呈现出高度可比性与协作潜力。 协议激励层:OpenLedger vs. Bittensor Bittensor 是当前最具代表性的去中心化 AI 网络,构建了由子网(Subnet)和评分机制驱动的多角色协同系统,以 $TAO 代币激励模型、数据与排序节点等参与者。相比之下,@Openledger 专注于链上部署与模型调用的收益分润,强调轻量化架构与 Agent 协同机制。两者激励逻辑虽有交集,但目标层级与系统复杂度差异明显:Bittensor 聚焦通用 AI 能力网络底座,@Openledger 则定位为 AI 应用层的价值承接平台。 模型归属与调用激励:OpenLedger vs. Sentient Sentient 提出的 “OML(Open, Monetizable, Loyal)AI” 理念在模型确权与社区所有权上与 @Openledger 部分思路相似,强调通过 Model Fingerprinting 实现归属识别与收益追踪。不同之处在于,Sentient 更聚焦模型的训练与生成阶段,而 @Openledger 专注于模型的链上部署、调用与分润机制,二者分别位于 AI 价值链的上游与下游,具有天然互补性。 模型托管与可信推理平台:OpenLedger vs. OpenGradient OpenGradient 侧重构建基于 TEE 和 zkML 的安全推理执行框架,提供去中心化模型托管与推理服务,聚焦于底层可信运行环境。相比之下,@Openledger 更强调链上部署后的价值捕获路径,围绕 Model Factory、OpenLoRA、PoA 与 Datanets 构建“训练—部署—调用—分润”的完整闭环。两者所处模型生命周期不同:OpenGradient偏运行可信性,OpenLedger偏收益激励与生态组合,具备高度互补空间。 众包模型与评估激励:OpenLedger vs. CrunchDAO CrunchDAO 专注于金融预测模型的去中心化竞赛机制,鼓励社区提交模型并基于表现获得奖励,适用于特定垂直场景。相较之下,@Openledger 提供可组合模型市场与统一部署框架,具备更广泛的通用性与链上原生变现能力,适合多类型智能体场景拓展。两者在模型激励逻辑上互补,具备协同潜力。 社区驱动轻量模型平台:OpenLedger vs. Assisterr Assisterr 基于 Solana 构建,鼓励社区创建小型语言模型(SLM),并通过无代码工具与 $sASRR 激励机制提升使用频率。相较而言,@Openledger 更强调数据-模型-调用的闭环追溯与分润路径,借助 PoA 实现细粒度激励分配。Assisterr 更适合低门槛的模型协作社区,@Openledger 则致力于构建可复用、可组合的模型基础设施。 模型工厂:OpenLedger vs. Pond Pond 与 @Openledger 同样提供 “Model Factory” 模块,但定位与服务对象差异显著。Pond 专注基于图神经网络(GNN)的链上行为建模,主要面向算法研究者与数据科学家,并通过竞赛机制推动模型开发,Pond更加倾向于模型竞争;OpenLedger 则基于语言模型微调(如 LLaMA、Mistral),服务开发者与非技术用户,强调无代码体验与链上自动分润机制,构建数据驱动的 AI 模型激励生态,OpenLedger更加倾向于数据合作。 可信推理路径:OpenLedger vs. Bagel Bagel 推出了 ZKLoRA 框架,利用 LoRA 微调模型与零知识证明(ZKP)技术,实现链下推理过程的加密可验证性,确保推理执行的正确性。而 @Openledger 则通过 OpenLoRA 支持 LoRA 微调模型的可扩展部署与动态调用,同时从不同角度解决推理可验证性问题 —— 它通过为每次模型输出附加归属证明(Proof of Attribution, PoA),追踪推理所依赖的数据来源及其影响力。这不仅提升了透明度,还为高质量数据贡献者提供奖励,并增强了推理过程的可解释性与可信度。简言之,Bagel 注重计算结果的正确性验证,而 @Openledger 则通过归属机制实现对推理过程的责任追踪与可解释性。 数据侧协作路径:OpenLedger vs. Sapien / FractionAI / Vana / Irys Sapien 与 FractionAI 提供去中心化数据标注服务,Vana 与 Irys 聚焦数据主权与确权机制。@Openledger 则通过 Datanets + PoA 模块,实现高质量数据的使用追踪与链上激励分发。前者可作为数据供给上游,@Openledger 则作为价值分配与调用中枢,三者在数据价值链上具备良好协同,而非竞争关系。 总结来看,@Openledger 在当前 Crypto AI 生态中占据“链上模型资产化与调用激励”这一中间层位置,既可向上衔接训练网络与数据平台,也可向下服务 Agent 层与终端应用,是连接模型价值供给与落地调用的关键桥梁型协议。 八、结论 | 从数据到模型,AI链的变现之路 #OpenLedger 致力于打造 Web3 世界中的“模型即资产”基础设施,通过构建链上部署、调用激励、归属确权与智能体组合的完整闭环,首次将 AI 模型带入真正可追溯、可变现、可协同的经济系统中。其围绕 Model Factory、OpenLoRA、PoA 和 Datanets 构建的技术体系,为开发者提供低门槛的训练工具,为数据贡献者保障收益归属,为应用方提供可组合的模型调用与分润机制,全面激活 AI 价值链中长期被忽视的“数据”与“模型”两端资源。 #OpenLedger 更像 HuggingFace + Stripe + Infura 的在Web3世界的融合体,为 AI 模型提供托管、调用计费与链上可编排的 API 接口。随着数据资产化、模型自治化、Agent 模块化趋势加速演进,OpenLedger 有望成为“Payable AI” 模式下的重要中枢 AI 链。

OpenLedge研报:数据与模型可变现的AI链

一、引言 | Crypto AI 的模型层跃迁
数据、模型与算力是 AI 基础设施的三大核心要素,类比燃料(数据)、引擎(模型)、能源(算力)缺一不可。与传统 AI 行业的基础设施演进路径类似,Crypto AI 领域也经历了相似的阶段。2024 年初,市场一度被去中心化 GPU 项目所主导(Akash、Render、io.net 等),普遍强调“拼算力”的粗放式增长逻辑。而进入 2025 年后,行业关注点逐步上移至模型与数据层,标志着 Crypto AI 正从底层资源竞争过渡到更具可持续性与应用价值的中层构建。
通用大模型(LLM)vs 特化模型(SLM)
传统的大型语言模型(LLM)训练高度依赖大规模数据集与复杂的分布式架构,参数规模动辄 70B~500B,训练一次的成本常高达数百万美元。而SLM(Specialized Language Model)作为一种可复用基础模型的轻量微调范式,通常基于 LLaMA、Mistral、DeepSeek 等开源模型,结合少量高质量专业数据及 LoRA 等技术,快速构建具备特定领域知识的专家模型,显著降低训练成本与技术门槛。
值得注意的是,SLM 并不会被集成进 LLM 权重中,而是通过Agent 架构调用、插件系统动态路由、LoRA 模块热插拔、RAG(检索增强生成)等方式与 LLM 协作运行。这一架构既保留了 LLM 的广覆盖能力,又通过精调模块增强了专业表现,形成了高度灵活的组合式智能系统。
Crypto AI 在模型层的价值与边界
Crypto AI 项目本质上难以直接提升大语言模型(LLM)的核心能力,核心原因在于
技术门槛过高:训练 Foundation Model 所需的数据规模、算力资源与工程能力极其庞大,目前仅有美国(OpenAI等)与中国(DeepSeek等)等科技巨头具备相应能力。开源生态局限:虽然主流基础模型如 LLaMA、Mixtral 已开源,但真正推动模型突破的关键依然集中于科研机构与闭源工程体系,链上项目在核心模型层的参与空间有限。
然而,在开源基础模型之上,Crypto AI 项目仍可通过精调特化语言模型(SLM),并结合 Web3 的可验证性与激励机制实现价值延伸。作为AI 产业链的“周边接口层”,体现于两个核心方向:
可信验证层:通过链上记录模型生成路径、数据贡献与使用情况,增强 AI 输出的可追溯性与抗篡改能力。激励机制: 借助原生 Token,用于激励数据上传、模型调用、智能体(Agent)执行等行为,构建模型训练与服务的正向循环。
AI 模型类型分类与 区块链适用性分析

由此可见,模型类Crypto AI 项目的可行落点主要集中在小型 SLM 的轻量化精调、RAG 架构的链上数据接入与验证、以及 Edge 模型的本地部署与激励上。结合区块链的可验证性与代币机制,Crypto 能为这些中低资源模型场景提供特有价值,形成 AI“接口层”的差异化价值。
基于数据与模型的区块链AI链,可对每一条数据和模型的贡献来源进行清晰、不可篡改的上链记录,显著提升数据可信度与模型训练的可溯性。同时,通过智能合约机制,在数据或模型被调用时自动触发奖励分发,将 AI 行为转化为可计量、可交易的代币化价值,构建可持续的激励体系。此外,社区用户还可通过代币投票评估模型性能、参与规则制定与迭代,完善去中心化治理架构。
二、项目概述 | OpenLedger 的AI链愿景
@OpenLedger 是当前市场上为数不多专注于数据与模型激励机制的区块链 AI 项目。它率先提出“Payable AI”的概念,旨在构建一个公平、透明且可组合的 AI 运行环境,激励数据贡献者、模型开发者与 AI 应用构建者在同一平台协作,并根据实际贡献获得链上收益。
@OpenLedger 提供了从“数据提供”到“模型部署”再到“调用分润”的全链条闭环,其核心模块包括:
Model Factory:无需编程,即可基于开源 LLM 使用 LoRA 微调训练并部署定制模型;OpenLoRA:支持千模型共存,按需动态加载,显著降低部署成本;PoA(Proof of Attribution):通过链上调用记录实现贡献度量与奖励分配;Datanets:面向垂类场景的结构化数据网络,由社区协作建设与验证;模型提案平台(Model Proposal Platform):可组合、可调用、可支付的链上模型市场。
通过以上模块,@OpenLedger 构建了一个数据驱动、模型可组合的“智能体经济基础设施”,推动 AI 价值链的链上化。
而在区块链技术采用上,@OpenLedger 以 OP Stack + EigenDA 为底座,为 AI 模型构建了高性能、低成本、可验证的数据与合约运行环境。
基于 OP Stack 构建: 基于 Optimism 技术栈,支持高吞吐与低费用执行;在以太坊主网上结算: 确保交易安全性与资产完整性;EVM 兼容: 方便开发者基于 Solidity 快速部署与扩展;EigenDA 提供数据可用性支持:显著降低存储成本,保障数据可验证性。
相比于 NEAR 这类更偏底层、主打数据主权与 “AI Agents on BOS” 架构的通用型 AI 链,@OpenLedger 更专注于构建面向数据与模型激励的 AI 专用链,致力于让模型的开发与调用在链上实现可追溯、可组合与可持续的价值闭环。它是 Web3 世界中的模型激励基础设施,结合 HuggingFace 式的模型托管、Stripe 式的使用计费与 Infura 式的链上可组合接口,推动“模型即资产”的实现路径。
三、OpenLedger的核心组件与技术架构
3.1 Model Factory,无需代码模型工厂
ModelFactory 是 @OpenLedger 生态下的一个大型语言模型(LLM)微调平台。与传统微调框架不同,ModelFactory 提供纯图形化界面操作,无需命令行工具或 API 集成。用户可以基于在 @OpenLedger 上完成授权与审核的数据集,对模型进行微调。实现了数据授权、模型训练与部署的一体化工作流,其核心流程包括:
数据访问控制: 用户提交数据请求,提供者审核批准,数据自动接入模型训练界面。模型选择与配置: 支持主流 LLM(如 LLaMA、Mistral),通过 GUI 配置超参数。轻量化微调: 内置 LoRA / QLoRA 引擎,实时展示训练进度。模型评估与部署: 内建评估工具,支持导出部署或生态共享调用。交互验证接口: 提供聊天式界面,便于直接测试模型问答能力。RAG 生成溯源: 回答带来源引用,增强信任与可审计性。
Model Factory 系统架构包含六大模块,贯穿身份认证、数据权限、模型微调、评估部署与 RAG 溯源,打造安全可控、实时交互、可持续变现的一体化模型服务平台。
ModelFactory目前支持的大语言模型能力简表如下:
LLaMA 系列:生态最广、社区活跃、通用性能强,是当前最主流的开源基础模型之一。Mistral:架构高效、推理性能极佳,适合部署灵活、资源有限的场景。Qwen:阿里出品,中文任务表现优异,综合能力强,适合国内开发者首选。ChatGLM:中文对话效果突出,适合垂类客服和本地化场景。Deepseek:在代码生成和数学推理上表现优越,适用于智能开发辅助工具。Gemma:Google 推出的轻量模型,结构清晰,易于快速上手与实验。Falcon:曾是性能标杆,适合基础研究或对比测试,但社区活跃度已减。BLOOM:多语言支持较强,但推理性能偏弱,适合语言覆盖型研究。GPT-2:经典早期模型,仅适合教学和验证用途,不建议实际部署使用。

虽然@OpenLedger 的模型组合并未包含最新的高性能 MoE 模型或多模态模型,但其策略并不落伍,而是基于链上部署的现实约束(推理成本、RAG适配、LoRA兼容、EVM环境)所做出的「实用优先」配置。
Model Factory 作为无代码工具链,所有模型都内置了贡献证明机制,确保数据贡献者和模型开发者的权益,具有低门槛、可变现与可组合性的优点,与传统模型开发工具相比较:
对于开发者:提供模型孵化、分发、收入的完整路径;对于平台:形成模型资产流通与组合生态;对于应用者:可以像调用 API 一样组合使用模型或 Agent。

3.2 OpenLoRA,微调模型的链上资产化
LoRA(Low-Rank Adaptation)是一种高效的参数微调方法,通过在预训练大模型中插入“低秩矩阵”来学习新任务,而不修改原模型参数,从而大幅降低训练成本和存储需求。传统大语言模型(如 LLaMA、GPT-3)通常拥有数十亿甚至千亿参数。要将它们用于特定任务(如法律问答、医疗问诊),就需要进行微调(fine-tuning)。LoRA 的核心策略是:“冻结原始大模型的参数,只训练插入的新参数矩阵。”,其参数高效、训练快速、部署灵活,是当前最适合 Web3 模型部署与组合调用的主流微调方法。

OpenLoRA 是 @OpenLedger 构建的一套专为 多模型部署与资源共享 而设计的轻量级推理框架。它核心目标是解决当前 AI 模型部署中常见的高成本、低复用、GPU 资源浪费等问题,推动“可支付 AI”(Payable AI)的落地执行。
OpenLoRA 系统架构核心组件,基于模块化设计,覆盖模型存储、推理执行、请求路由等关键环节,实现高效、低成本的多模型部署与调用能力:
LoRA Adapter 存储模块(LoRA Adapters Storage):微调后的 LoRA adapter 被托管在 @OpenLedger 上,实现按需加载,避免将所有模型预载入显存,节省资源。模型托管与动态融合层(Model Hosting & Adapter Merging Layer):所有微调模型共用基础大模型(base model),推理时 LoRA adapter 动态合并,支持多个 adapter 联合推理(ensemble),提升性能。推理引擎(Inference Engine):集成Flash-Attention、Paged-Attention、SGMV 优化等多项 CUDA 优化技术。请求路由与流式输出模块(Request Router & Token Streaming): 根据请求中所需模型动态路由至正确 adapter, 通过优化内核实现 token 级别的流式生成。
OpenLoRA 的推理流程属于技术层面“成熟通用”的模型服务”流程,如下:
基础模型加载:系统预加载如 LLaMA 3、Mistral 等基础大模型至 GPU 显存中。LoRA 动态检索:接收请求后,从 Hugging Face、Predibase 或本地目录动态加载指定 LoRA adapter。适配器合并激活:通过优化内核将 adapter 与基础模型实时合并,支持多 adapter 组合推理。推理执行与流式输出:合并后的模型开始生成响应,采用 token 级流式输出降低延迟,结合量化保障效率与精度。推理结束与资源释放:推理完成后自动卸载 adapter,释放显存资源。确保可在单 GPU 上高效轮转并服务数千个微调模型,支持模型高效轮转。
OpenLoRA 通过一系列底层优化手段,显著提升了多模型部署与推理的效率。其核心包括动态 LoRA 适配器加载(JIT loading),有效降低显存占用;张量并行(Tensor Parallelism)与 Paged Attention 实现高并发与长文本处理;支持多模型融合(Multi-Adapter Merging)多适配器合并执行,实现 LoRA 组合推理(ensemble);同时通过 Flash Attention、预编译 CUDA 内核和 FP8/INT8 量化技术,对底层 CUDA 优化与量化支持,进一步提升推理速度并降低延迟。这些优化使得 OpenLoRA 能在单卡环境下高效服务数千个微调模型,兼顾性能、可扩展性与资源利用率。
OpenLoRA 定位不仅是一个高效的 LoRA 推理框架,更是将模型推理与 Web3 激励机制深度融合,目标是将 LoRA 模型变成可调用、可组合、可分润的 Web3 资产。
模型即资产(Model-as-Asset):OpenLoRA 不只是部署模型,而是赋予每个微调模型链上身份(Model ID),并将其调用行为与经济激励绑定,实现“调用即分润”。多 LoRA 动态合并 + 分润归属:支持多个 LoRA adapter 的动态组合调用,允许不同模型组合形成新的 Agent 服务,同时系统可基于 PoA(Proof of Attribution)机制按调用量为每个适配器精确分润。支持长尾模型的“多租户共享推理”:通过动态加载与显存释放机制,OpenLoRA 能在单卡环境下服务数千个 LoRA 模型,特别适合 Web3 中小众模型、个性化 AI 助手等高复用、低频调用场景。

此外,@OpenLedger 发布了其对OpenLoRA 性能指标的未来展望,相比传统全参数模型部署,其显存占用大幅降低至 8–12GB;模型切换时间理论上可低于 100ms;吞吐量可达 2000+ tokens/sec;延迟控制在 20–50ms 。整体而言,这些性能指标在技术上具备可达性,但更接近“上限表现”,在实际生产环境中,性能表现可能会受到硬件、调度策略和场景复杂度的限制,应被视为“理想上限”而非“稳定日常”。
3.3 Datanets(数据网络),从数据主权到数据智能
高质量、领域专属的数据成为构建高性能模型的关键要素。Datanets 是 @OpenLedger “数据即资产”的基础设施,用于收集和管理特定领域的数据集,用于聚合、验证与分发特定领域数据的去中心化网络,为 AI 模型的训练与微调提供高质量数据源。每个 Datanet 就像一个结构化的数据仓库,由贡献者上传数据,并通过链上归属机制确保数据可溯源、可信任,通过激励机制与透明的权限控制,Datanets 实现了模型训练所需数据的社区共建与可信使用。
与聚焦数据主权的 Vana 等项目相比,@OpenLedger 并不止于“数据收集”,而是通过 Datanets(协作式标注与归属数据集)、Model Factory(支持无代码微调的模型训练工具)、OpenLoRA(可追踪、可组合的模型适配器)三大模块,将数据价值延展至模型训练与链上调用,构建“从数据到智能(data-to-intelligence)”的完整闭环。Vana 强调“谁拥有数据”,而 @OpenLedger 则聚焦“数据如何被训练、调用并获得奖励”,在 Web3 AI 生态中分别占据数据主权保障与数据变现路径的关键位置。
3.4 Proof of Attribution(贡献证明):重塑利益分配的激励层
Proof of Attribution(PoA)是 @OpenLedger 实现数据归属与激励分配的核心机制,通过链上加密记录,将每一条训练数据与模型输出建立可验证的关联,确保贡献者在模型调用中获得应得回报,其数据归属与激励流程概览如下:
数据提交:用户上传结构化、领域专属的数据集,并上链确权。影响评估:系统根据数据特征影响与贡献者声誉,在每次推理时评估其价值。训练验证:训练日志记录每条数据的实际使用情况,确保贡献可验证。激励分配:根据数据影响力,向贡献者发放与效果挂钩的 Token 奖励。质量治理:对低质、冗余或恶意数据进行惩罚,保障模型训练质量。
与Bittensor 子网架构结合评分机制的区块链通用型激励网络相比较,@OpenLedger 则专注于模型层面的价值捕获与分润机制。PoA 不仅是一个激励分发工具,更是一个面向 透明度、来源追踪与多阶段归属 的框架:它将数据的上传、模型的调用、智能体的执行过程全程上链记录,实现端到端的可验证价值路径。这种机制使得每一次模型调用都能溯源至数据贡献者与模型开发者,从而实现链上 AI 系统中真正的“价值共识”与“收益可得”。
RAG(Retrieval-Augmented Generation) 是一种结合检索系统与生成式模型的 AI 架构,它旨在解决传统语言模型“知识封闭”“胡编乱造”的问题,通过引入外部知识库增强模型生成能力,使输出更加真实、可解释、可验证。RAG Attribution 是 @OpenLedger 在检索增强生成(Retrieval-Augmented Generation)场景下建立的数据归属与激励机制,确保模型输出的内容可追溯、可验证,贡献者可激励,最终实现生成可信化与数据透明化,其流程包括:
用户提问 → 检索数据:AI 接收到问题后,从 @OpenLedger 数据索引中检索相关内容。数据被调用并生成回答:检索到的内容被用于生成模型回答,并被链上记录调用行为。贡献者获得奖励:数据被使用后,其贡献者获得按金额与相关性计算的激励。生成结果带引用:模型输出附带原始数据来源链接,实现透明问答与可验证内容。

@OpenLedger 的 RAG Attribution 让每一次 AI 回答都可追溯至真实数据来源,贡献者按引用频次获得激励,实现“知识有出处、调用可变现”。这一机制不仅提升了模型输出的透明度,也为高质量数据贡献构建了可持续的激励闭环,是推动可信 AI 和数据资产化的关键基础设施。
四、OpenLedger项目进展与生态合作
目前@OpenLedger 已上线测试网,数据智能层(Data Intelligence Layer) 是 @OpenLedger 测试网的首个阶段,旨在构建一个由社区节点共同驱动的互联网数据仓库。这些数据经过筛选、增强、分类和结构化处理,最终形成适用于大型语言模型(LLM)的辅助智能,用于构建 @OpenLedger 上的领域 AI 模型。社区成员可运行边缘设备节点,参与数据采集与处理,节点将使用本地计算资源执行数据相关任务,参与者根据活跃度和任务完成度获得积分奖励。而这些积分将在未来转换为 OPEN 代币,具体兑换比例将在代币生成事件(TGE)前公布。

Epoch 2 测试网重点推出了 Datanets 数据网络机制,该阶段仅限白名单用户参与,需完成预评估以解锁任务。任务涵盖数据验证、分类等,完成后根据准确率和难度获得积分,并通过排行榜激励高质量贡献,官网目前提供的可参与数据模型如下:

@OpenLedger 更为长远的路线图规划,从数据采集、模型构建走向 Agent 生态,逐步实现“数据即资产、模型即服务、Agent 即智能体”的完整去中心化 AI 经济闭环。
Phase 1 · 数据智能层(Data Intelligence Layer): 社区通过运行边缘节点采集和处理互联网数据,构建高质量、持续更新的数据智能基础层。Phase 2 · 社区数据贡献(Community Contributions): 社区参与数据验证与反馈,共同打造可信的黄金数据集(Golden Dataset),为模型训练提供优质输入。Phase 3 · 模型构建与归属声明(Build Models & Claim): 基于黄金数据,用户可训练专用模型并确权归属,实现模型资产化与可组合的价值释放。Phase 4 · 智能体创建(Build Agents): 基于已发布模型,社区可创建个性化智能体(Agents),实现多场景部署与持续协同演进。
@OpenLedger 的生态合作伙伴涵盖算力、基础设施、工具链与 AI 应用。其合作伙伴包括 Aethir、Ionet、0G 等去中心化算力平台,AltLayer、Etherfi 及 EigenLayer 上的 AVS 提供底层扩容与结算支持;Ambios、Kernel、Web3Auth、Intract 等工具提供身份验证与开发集成能力;在 AI 模型与智能体方面,@OpenLedger 联合 Giza、Gaib、Exabits、FractionAI、Mira、NetMind 等项目共同推进模型部署与智能体落地,构建一个开放、可组合、可持续的 Web3 AI 生态系统。
过去一年,#OpenLedger 在 Token2049 Singapore、Devcon Thailand、Consensus Hong Kong 及 ETH Denver 期间连续主办 Crypto AI 主题的 DeAI Summit 峰会,邀请了众多去中心化 AI 领域的核心项目与技术领袖参与。作为少数能够持续策划高质量行业活动的基础设施项目之一,#OpenLedger 借助 DeAI Summit 有效强化了其在开发者社区与 Web3 AI 创业生态中的品牌认知与专业声誉,为其后续生态拓展与技术落地奠定了良好的行业基础。
五、融资及团队背景
@OpenLedger 于 2024 年 7 月完成了 1120 万美元的种子轮融资,投资方包括 Polychain Capital、Borderless Capital、Finality Capital、Hashkey,以及多位知名天使投资人,如 Sreeram Kannan(EigenLayer)、Balaji Srinivasan、Sandeep(Polygon)、Kenny(Manta)、Scott(Gitcoin)、Ajit Tripathi(Chainyoda)和 Trevor。资金将主要用于推进 @OpenLedger 的 AI Chain网络建设、模型激励机制、数据基础层及 Agent 应用生态的全面落地。

@OpenLedger 由 Ram Kumar 创立,他是 #OpenLedger 的核心贡献者,同时是一位常驻旧金山的创业者,在 AI/ML 和区块链技术领域拥有坚实的技术基础。他为项目带来了市场洞察力、技术专长与战略领导力的有机结合。Ram 曾联合领导一家区块链与 AI/ML 研发公司,年营收超过 3500 万美元,并在推动关键合作方面发挥了重要作用,其中包括与沃尔玛子公司达成的一项战略合资项目。他专注于生态系统构建与高杠杆合作,致力于加速各行业的现实应用落地。
六、代币经济模型设计及治理
$OPEN @OpenLedger 生态的核心功能型代币,赋能网络治理、交易运行、激励分发与 AI Agent 运营,是构建 AI 模型与数据在链上可持续流通的经济基础,目前官方公布的代币经济学尚属早期设计阶段,细节尚未完全明确,但随着项目即将迈入代币生成事件(TGE)阶段,其社区增长、开发者活跃度与应用场景实验正在亚洲、欧洲与中东地区持续加速推进:
治理与决策:Open持有者可参与模型资助、Agent 管理、协议升级与资金使用的治理投票。交易燃料与费用支付:作为 @OpenLedger 网络的原生 gas 代币,支持 AI 原生的定制费率机制。激励与归属奖励:贡献高质量数据、模型或服务的开发者可根据使用影响获得Open分润。跨链桥接能力:Open支持 L2 ↔ L1(Ethereum)桥接,提升模型和 Agent 的多链可用性。AI Agent 质押机制:AI Agent 运行需质押 $OPEN ,表现不佳将被削减质押,激励高效、可信的服务输出。
与许多影响力与持币数量挂钩的代币治理协议不同,@OpenLedger 引入了一种基于贡献价值的治理机制。其投票权重与实际创造的价值相关,而非单纯的资本权重,优先赋能那些参与模型和数据集构建、优化与使用的贡献者。这种架构设计有助于实现治理的长期可持续性,防止投机行为主导决策,真正契合其“透明、公平、社区驱动”的去中心化 AI 经济愿景。
七、数据、模型与激励市场格局及竞品比较
@OpenLedger 作为“可支付 AI(Payable AI)”模型激励基础设施,致力于为数据贡献者与模型开发者提供可验证、可归属、可持续的价值变现路径。其围绕链上部署、调用激励和智能体组合机制,构建出具有差异化特征的模块体系,在当前 Crypto AI 赛道中独树一帜。虽然尚无项目在整体架构上完全重合,但在协议激励、模型经济与数据确权等关键维度,OpenLedger 与多个代表性项目呈现出高度可比性与协作潜力。
协议激励层:OpenLedger vs. Bittensor
Bittensor 是当前最具代表性的去中心化 AI 网络,构建了由子网(Subnet)和评分机制驱动的多角色协同系统,以 $TAO 代币激励模型、数据与排序节点等参与者。相比之下,@OpenLedger 专注于链上部署与模型调用的收益分润,强调轻量化架构与 Agent 协同机制。两者激励逻辑虽有交集,但目标层级与系统复杂度差异明显:Bittensor 聚焦通用 AI 能力网络底座,@OpenLedger 则定位为 AI 应用层的价值承接平台。
模型归属与调用激励:OpenLedger vs. Sentient
Sentient 提出的 “OML(Open, Monetizable, Loyal)AI” 理念在模型确权与社区所有权上与 @OpenLedger 部分思路相似,强调通过 Model Fingerprinting 实现归属识别与收益追踪。不同之处在于,Sentient 更聚焦模型的训练与生成阶段,而 @OpenLedger 专注于模型的链上部署、调用与分润机制,二者分别位于 AI 价值链的上游与下游,具有天然互补性。
模型托管与可信推理平台:OpenLedger vs. OpenGradient
OpenGradient 侧重构建基于 TEE 和 zkML 的安全推理执行框架,提供去中心化模型托管与推理服务,聚焦于底层可信运行环境。相比之下,@OpenLedger 更强调链上部署后的价值捕获路径,围绕 Model Factory、OpenLoRA、PoA 与 Datanets 构建“训练—部署—调用—分润”的完整闭环。两者所处模型生命周期不同:OpenGradient偏运行可信性,OpenLedger偏收益激励与生态组合,具备高度互补空间。
众包模型与评估激励:OpenLedger vs. CrunchDAO
CrunchDAO 专注于金融预测模型的去中心化竞赛机制,鼓励社区提交模型并基于表现获得奖励,适用于特定垂直场景。相较之下,@OpenLedger 提供可组合模型市场与统一部署框架,具备更广泛的通用性与链上原生变现能力,适合多类型智能体场景拓展。两者在模型激励逻辑上互补,具备协同潜力。
社区驱动轻量模型平台:OpenLedger vs. Assisterr
Assisterr 基于 Solana 构建,鼓励社区创建小型语言模型(SLM),并通过无代码工具与 $sASRR 激励机制提升使用频率。相较而言,@OpenLedger 更强调数据-模型-调用的闭环追溯与分润路径,借助 PoA 实现细粒度激励分配。Assisterr 更适合低门槛的模型协作社区,@OpenLedger 则致力于构建可复用、可组合的模型基础设施。
模型工厂:OpenLedger vs. Pond
Pond 与 @OpenLedger 同样提供 “Model Factory” 模块,但定位与服务对象差异显著。Pond 专注基于图神经网络(GNN)的链上行为建模,主要面向算法研究者与数据科学家,并通过竞赛机制推动模型开发,Pond更加倾向于模型竞争;OpenLedger 则基于语言模型微调(如 LLaMA、Mistral),服务开发者与非技术用户,强调无代码体验与链上自动分润机制,构建数据驱动的 AI 模型激励生态,OpenLedger更加倾向于数据合作。
可信推理路径:OpenLedger vs. Bagel
Bagel 推出了 ZKLoRA 框架,利用 LoRA 微调模型与零知识证明(ZKP)技术,实现链下推理过程的加密可验证性,确保推理执行的正确性。而 @OpenLedger 则通过 OpenLoRA 支持 LoRA 微调模型的可扩展部署与动态调用,同时从不同角度解决推理可验证性问题 —— 它通过为每次模型输出附加归属证明(Proof of Attribution, PoA),追踪推理所依赖的数据来源及其影响力。这不仅提升了透明度,还为高质量数据贡献者提供奖励,并增强了推理过程的可解释性与可信度。简言之,Bagel 注重计算结果的正确性验证,而 @OpenLedger 则通过归属机制实现对推理过程的责任追踪与可解释性。
数据侧协作路径:OpenLedger vs. Sapien / FractionAI / Vana / Irys
Sapien 与 FractionAI 提供去中心化数据标注服务,Vana 与 Irys 聚焦数据主权与确权机制。@OpenLedger 则通过 Datanets + PoA 模块,实现高质量数据的使用追踪与链上激励分发。前者可作为数据供给上游,@OpenLedger 则作为价值分配与调用中枢,三者在数据价值链上具备良好协同,而非竞争关系。

总结来看,@OpenLedger 在当前 Crypto AI 生态中占据“链上模型资产化与调用激励”这一中间层位置,既可向上衔接训练网络与数据平台,也可向下服务 Agent 层与终端应用,是连接模型价值供给与落地调用的关键桥梁型协议。
八、结论 | 从数据到模型,AI链的变现之路
#OpenLedger 致力于打造 Web3 世界中的“模型即资产”基础设施,通过构建链上部署、调用激励、归属确权与智能体组合的完整闭环,首次将 AI 模型带入真正可追溯、可变现、可协同的经济系统中。其围绕 Model Factory、OpenLoRA、PoA 和 Datanets 构建的技术体系,为开发者提供低门槛的训练工具,为数据贡献者保障收益归属,为应用方提供可组合的模型调用与分润机制,全面激活 AI 价值链中长期被忽视的“数据”与“模型”两端资源。
#OpenLedger 更像 HuggingFace + Stripe + Infura 的在Web3世界的融合体,为 AI 模型提供托管、调用计费与链上可编排的 API 接口。随着数据资产化、模型自治化、Agent 模块化趋势加速演进,OpenLedger 有望成为“Payable AI” 模式下的重要中枢 AI 链。
查看原文
OpenLedger研究报告:可货币化数据和模型的AI链1. 介绍 | 加密AI中的模型层转变 数据、模型和计算构成了AI基础设施的三个核心支柱——可比作燃料(数据)、引擎(模型)和能源(计算)——所有这些都是不可或缺的。与传统AI行业基础设施的演变类似,加密AI领域也经历了类似的轨迹。在2024年初,市场由去中心化GPU项目(如Akash、Render和io.net)主导,其特征是以原始计算能力为重点的资源密集型增长模型。然而,到2025年,行业关注逐渐转向模型和数据层,标志着从低级基础设施竞争向更可持续的、以应用驱动的中层开发的过渡。

OpenLedger研究报告:可货币化数据和模型的AI链

1. 介绍 | 加密AI中的模型层转变
数据、模型和计算构成了AI基础设施的三个核心支柱——可比作燃料(数据)、引擎(模型)和能源(计算)——所有这些都是不可或缺的。与传统AI行业基础设施的演变类似,加密AI领域也经历了类似的轨迹。在2024年初,市场由去中心化GPU项目(如Akash、Render和io.net)主导,其特征是以原始计算能力为重点的资源密集型增长模型。然而,到2025年,行业关注逐渐转向模型和数据层,标志着从低级基础设施竞争向更可持续的、以应用驱动的中层开发的过渡。
查看原文
Pendle 收益策略揭示:Pulse 的 AgentFi 范式由 0xjacobzhao 提供 | https://linktr.ee/0xjacobzhao 毫无疑问,Pendle 是当前加密周期中最成功的 DeFi 协议之一。虽然许多协议因流动性枯竭和叙事消退而停滞不前,但 Pendle 通过其独特的收益分割和交易机制脱颖而出,成为收益资产的“价格发现场所”。通过与稳定币、LSTs/LRTs 和其他收益产生资产的深度集成,它已确保其作为基础性“DeFi 收益率基础设施”的定位。

Pendle 收益策略揭示:Pulse 的 AgentFi 范式

由 0xjacobzhao 提供 | https://linktr.ee/0xjacobzhao
毫无疑问,Pendle 是当前加密周期中最成功的 DeFi 协议之一。虽然许多协议因流动性枯竭和叙事消退而停滞不前,但 Pendle 通过其独特的收益分割和交易机制脱颖而出,成为收益资产的“价格发现场所”。通过与稳定币、LSTs/LRTs 和其他收益产生资产的深度集成,它已确保其作为基础性“DeFi 收益率基础设施”的定位。
查看原文
从 zkVM 到开放证明市场:对 RISC Zero 和 Boundless 的分析在区块链中,密码学是安全性和信任的基础。零知识证明(ZK)可以将任何复杂的链外计算压缩成一个简洁的证明,该证明可以在链上高效验证——无需依赖第三方信任——同时还允许选择性输入隐藏以保护隐私。凭借其高效验证、通用性和隐私的结合,ZK已成为扩展、隐私和互操作性用例中的关键解决方案。尽管仍然存在挑战,例如证明生成的高成本和电路开发的复杂性,但ZK的工程可行性和采用程度已经超越了其他方法,使其成为最广泛采用的可信计算框架。

从 zkVM 到开放证明市场:对 RISC Zero 和 Boundless 的分析

在区块链中,密码学是安全性和信任的基础。零知识证明(ZK)可以将任何复杂的链外计算压缩成一个简洁的证明,该证明可以在链上高效验证——无需依赖第三方信任——同时还允许选择性输入隐藏以保护隐私。凭借其高效验证、通用性和隐私的结合,ZK已成为扩展、隐私和互操作性用例中的关键解决方案。尽管仍然存在挑战,例如证明生成的高成本和电路开发的复杂性,但ZK的工程可行性和采用程度已经超越了其他方法,使其成为最广泛采用的可信计算框架。
登录解锁更多内容
浏览最新的加密货币新闻
⚡️ 参与加密货币领域的最新讨论
💬 与喜爱的创作者互动
👍 查看感兴趣的内容
邮箱/手机号码

实时新闻

--
查看更多

热门文章

爱生活的晴
查看更多
网站地图
Cookie偏好设置
平台条款和条件