a16z年度展望:2026最具期待的Web3趋势

현재 언어 번역이 없어 원문을 표시합니다.
中国Web3创业可参考

文章 | a16z crypto

编译 | Portal Labs

a16z近日发布了2026年度重要趋势展望,这份报告由其应用、American Dynamism、生物、加密、增长、基础设施与快速启动(Speedrun)等团队的多位合伙人共同完成,汇集了他们对未来前沿领域的17项观察。内容涵盖智能体与人工智能、稳定币与资产代币化、隐私与安全、预测市场、SNARK等基础技术,以及新一代开发方式等多个方向,基本呈现了全球 Web3 及其周边技术体系的最新判断。

作为面向中国Web3投资、创业者的研究团队,Portal Labs在本篇将从中筛选出在中国语境下具备现实落地空间、政策容忍度较高、并具有长期价值的方向

从KYC到KYA:智能体时代的身份问题

随着AI智能体开始进入金融和业务系统,行业面临的瓶颈正在发生转移——不再是“智能是否足够强”,而是身份如何被识别和管理。

在金融体系中,“非人类身份”的数量早已远超人类员工,但这些身份大多处于一种尴尬状态:它们能执行操作,却无法被清晰地识别、授权和追责,像是系统里的“幽灵账户”。

这正是KYA(Know Your Agent)要解决的问题。

就像人类需要通过KYC建立身份、信用和责任边界,智能体同样需要一套可验证的身份机制。一个合格的智能体身份,必须明确三件事:

  • 它代表谁行动;

  • 它的权限和限制是什么;

  • 当出现问题时,责任如何归属。

只有当智能体具备经过加密签名的身份凭证,并与其控制方和责任主体绑定,商户和系统才可能真正放行它们参与交易和业务流程。否则,出于风险考虑,智能体仍会被挡在系统入口之外。

过去几十年,行业逐步建立了以KYC为核心的身份基础设施。而随着AI和自动化系统的普及,KYA正在成为下一阶段必须补齐的基础设施。

AI正在被用于真正“有实质内容”的研究工作

随着AI开始参与越来越多“实质性研究工作”,它对基础设施的要求也在发生变化。

a16z crypto研究团队成员Scott Kominers提到,今年年初,主流的消费级AI模型几乎无法理解他的研究流程;但到了年底,他已经可以像指导博士生一样,用抽象指令让模型完成复杂研究任务,而且有时还能给出正确、甚至具有新意的答案。

这种变化并不只发生在个体研究者身上。如今,AI已经开始被用于更广泛的研究型工作,尤其是在需要复杂推理的领域。有模型可以协助发现新的研究路径,甚至能够独立完成高难度的数学推理问题。

但这也带来了一个新的变化:

研究不再是线性推进的过程,而更像是在不断提出假设、连接概念、从并不完全准确的结果中寻找方向。某种意义上,研究者甚至是在“利用 AI 的不完美”——当模型足够聪明时,给它更大的探索空间,哪怕偶尔会产生偏差,也可能打开新的思路,就像人类在非线性思考中往往更具创造力一样。

为了支撑这种研究方式,AI的工作流本身也在发生变化。不再是单一模型给出答案,而是多层模型相互验证、评估,再逐步筛选出真正有价值的结果。有人用这种方式写论文,有人用它做专利检索、艺术创作,甚至也有人发现了新的智能合约攻击路径。

问题在于,当研究开始依赖多模型协作时,系统必须能够回答两个基础问题:不同模型之间如何协作?每一个参与者的贡献又该如何被识别和记录?

在Scott Kominers看来,这正是区块链等基础设施技术真正能够发挥作用的地方:不是做金融,不是做投机,而是面向AI与复杂系统的基础设施能力(比如协作机制、可验证记录、责任与权限边界)提供协作、记录和责任划分的底层机制。

开放网络正在承受一笔“看不见的税”

随着AI智能体的普及,它们正在对开放互联网施加一种隐形的成本,悄然改变着网络原有的经济基础。问题的根源,在于互联网的“内容层”和“执行层”之间正在出现越来越明显的错位:

当前,AI智能体大量从依赖广告和订阅的网站中获取信息,为用户提供便利,却绕开了支撑这些内容生产的收入机制。这种“使用但不付费”的模式,正在持续侵蚀开放网络的可持续性——而讽刺的是,这些内容正是AI本身得以成长的基础。

如果不加以修正,开放网络将不可避免地走向萎缩。因此,行业需要在技术和经济层面同时做出调整。可能的方向包括:新一代内容赞助模式、更精细的数据贡献归因体系,或其他能够让价值回流的机制。现有的AI内容授权协议,本质上只是权宜之计,它们往往只能补偿内容方已经因AI流量替代而损失收入的一小部分。

Web需要一种新的技术—经济模型,使价值能够自动流转。接下来一年的关键转变,将是从“静态授权”走向“按实际使用实时结算”。这意味着,需要测试并规模化一套体系——可能借助区块链支持的微额结算与更精细的贡献计量标准——让每一个为AI任务提供信息的参与方,都能被自动识别并获得相应回报。

隐私,正在成为加密世界最重要的护城河

如果说有什么能力,是全球金融体系真正走向链上的前提,那一定是隐私。但讽刺的是,隐私恰恰也是当下绝大多数区块链最缺失的一环。在很长一段时间里,隐私更多只是被当作“附加功能”,而非底层设计。

但现在,单是“隐私”本身,已经足以让一条链从众多同质化网络中脱颖而出。更重要的是,隐私会带来一种更深层的效应——它会形成链级别的锁定效应,一种隐私驱动的网络效应。在性能竞争逐渐失效的背景下,这一点尤为关键。

在完全公开的环境中,跨链几乎没有成本。借助跨链协议,资产可以在不同链之间自由流动。但一旦引入隐私,情况就发生了变化:资产可以被桥接,但“秘密”很难被安全迁移。

无论是从私有环境进入公开链,还是在不同隐私网络之间切换,都会不可避免地泄露元数据——例如交易时间、规模、行为模式之间的关联性。这些信息一旦被观察者捕捉,就可能削弱隐私本身的意义。因此,用户在进入一个隐私环境之后,往往会更谨慎地选择是否离开。

相比那些高度同质化、手续费可能被竞争压到接近零的新公链,具备隐私能力的区块链更容易形成强网络效应。现实是,如果一条“通用型”公链既没有成熟生态、也没有关键应用,或显著的分发优势,那么用户几乎没有理由长期使用它,更谈不上建立忠诚度。

在公开链上,用户选择哪条链并不重要,因为跨链交互成本极低;但在隐私链上,选择本身就变得重要起来。一旦用户进入某个隐私环境,他们往往不愿意频繁迁移、暴露行为轨迹。这种特性,最终会形成一种“赢家占大头”的格局。

而由于隐私几乎是绝大多数真实世界应用的必要条件,未来加密世界中,真正承载大规模使用的,可能并不是大量通用链,而是少数具备隐私能力的基础设施网络。

消息系统的未来,不只是抗量子,而是去中心化

随着量子计算逐步走向现实,越来越多基于加密技术的通信应用已经开始提前布局。无论是Apple、Signal还是WhatsApp,它们在加密层面都做了大量扎实的工作。但问题在于,这些主流通信工具仍然依赖于由单一组织运营的私有服务器。

这类架构本身就构成了一个明显的单点风险:服务器可以被关闭、被强制接入后门,或者被迫交出数据。换句话说,即便加密算法再先进,只要通信依赖于一个中心化服务器,“信任”这个前提就依然存在。

如果一个系统要求用户“相信我会保护你的数据”,那它本质上仍然是中心化的。相反,没有私有服务器的通信网络,才真正做到“不需要信任任何一方”。通信本身并不一定需要一个中介公司存在于中间,消息系统完全可以基于开放协议运行。

要实现这一点,关键在于对通信网络本身进行去中心化设计:

没有私有服务器,没有单一应用,代码完全开源,并采用最高级别的加密方案(包括对未来量子威胁的防御)。在这样的网络中,不存在某一个组织、公司或国家可以单方面剥夺通信能力。

即便某个应用被关闭,新的实现版本也可以迅速出现;即便某个节点下线,也会因为区块链等机制所提供的经济激励,很快被新的节点替代。

当用户像保管资产一样,用密钥来掌控自己的消息和身份时,通信系统的逻辑就发生了变化。应用可以更替,但消息与身份的控制权始终掌握在用户手中。

这已经不只是“抗量子”或“更强加密”的问题,而是关于所有权与去中心化。如果缺少这两点,再牢不可破的加密,也依然可能在系统层面被“关掉”。

Secrets-as-a-service

在每一个模型、智能体和自动化系统背后,都绕不开一个最基础的依赖:数据。

但现实是,今天大多数数据管道——无论是输入给模型的数据,还是模型输出的数据——都是不透明、可被篡改、也难以审计的。这在一些消费级应用中或许还能接受,但在金融、医疗等行业,这种状态是不可行的:企业必须保证敏感数据的隐私性。

那么,问题来了:我们如何在保护隐私的前提下,仍然支持安全、合规、可自动执行、并且具备全球互操作性的创新?

解决路径有很多,这里我重点关注一个基础问题:数据访问控制。

谁控制敏感数据?数据如何流动?又是谁(或者什么系统)在什么条件下可以访问它?

如果没有成熟的数据访问控制机制,任何希望保护数据隐私的团队,今天几乎只能选择两条路:要么依赖中心化服务;要么自行搭建一套高度定制化的系统。

这两种方式不仅成本高、周期长,也在事实上阻挡了传统金融机构等主体,真正发挥链上数据管理的优势。更重要的是,当智能体开始自主浏览、交易、并做出决策时,用户和机构都不再满足于“尽力而为的信任”,而是需要密码学级别的确定性保障。

正因如此,我认为我们需要一种新的基础设施:“Secrets-as-a-Service(密钥即服务)”。

这种技术应当具备以下能力:

  • 可编程、原生的数据访问规则;

  • 客户端侧加密;

  • 去中心化的密钥管理机制;

  • 并在链上强制执行——明确谁可以解密哪些数据、在什么条件下、以及多长时间内有效。

当它与可验证数据系统结合时,“密钥”本身将不再只是应用层的补丁,而有可能成为互联网的基础公共设施之一。

从「代码即规则」到「规范即规则」

近期发生的一系列DeFi攻击事件,击中了不少已经“久经考验”的协议。这些项目拥有成熟团队、严格审计,并且已稳定运行多年。

但这些事故暴露了一个并不令人舒服的现实:当前主流的安全实践,依然高度依赖经验判断,更多是逐案处理,而非系统化方法。

要让系统真正走向成熟,安全性需要发生一次范式转变:从依赖漏洞模式,转向依赖设计层面的安全属性;从“尽力而为”,转向“有原则、可证明”的方法。

在部署之前(测试、审计、形式化验证)这一侧,这意味着不再只验证少数人工挑选的局部条件,而是系统性地证明整个系统必须始终满足的全局不变量。

目前,多支团队正在构建AI辅助的证明工具,用来帮助编写规范、提出不变量假设,并大幅减少过去昂贵而繁琐的人工证明成本。在部署之后(运行时监控、运行时约束)这一侧,这些不变量可以进一步转化为“实时护栏”,成为系统的最后一道防线。它们会以运行时断言的形式直接写入系统中,要求每一笔操作都必须满足这些安全条件。

这样一来,系统不再假设“所有漏洞都已经被发现”,而是在执行层面强制执行关键安全属性,任何违反这些属性的操作都会被自动回滚。

这并不是纯理论设想。实际上,迄今为止几乎所有已知的攻击,在执行过程中都会触发其中至少一条约束,从而有机会在攻击完成前被阻断。也正是在这个意义上,过去流行的“代码即法律(code is law)”,正在演变为“规范即法律(spec is law)”:即便是全新的攻击路径,也必须满足系统既定的安全规范,能够成功的攻击只会越来越小、越来越难。

加密技术正在成为区块链之外的新基础能力

多年来,SNARK(零知识证明)这类密码学技术,几乎只存在于区块链世界中。原因很现实:成本太高。过去,生成一次计算证明,往往需要比直接运行计算多出百万倍的工作量。这种代价,在区块链这种可以由大量验证节点分摊成本的系统中尚且可以接受,但在链下计算、云计算等场景中几乎无法落地。

这一局面正在发生变化。到2026年,新一代zkVM证明器的性能将出现明显跃迁:证明开销有望下降到约一万倍,内存占用控制在数百MB级别。这意味着,零知识证明不再是“只能跑在链上的昂贵工具”,而是开始具备在通用服务器、甚至移动设备上运行的现实条件。

一万倍之所以成为关键阈值,并非偶然。高端GPU的并行算力,本身就比普通笔记本CPU高出约一万倍。随着证明系统逐步完成GPU优化,单张GPU在实时生成CPU执行过程的正确性证明上,将不再是理论设想,而是工程可行的问题。

这也让一个长期停留在论文中的概念开始变得具体:可验证云计算。现实世界中,大量计算任务本就运行在云端——不是所有工作负载都适合GPU化,也不是每个团队都有能力重构底层系统。未来,在这些场景下,计算结果本身可以附带一份密码学级别的正确性证明,而无需修改业务代码本身。

在这一逻辑下,加密技术真正开始脱离“区块链专属工具”的定位,转而成为一种通用基础能力:为复杂系统提供可验证的计算结果、可追溯的执行过程,以及无需信任中介的正确性证明。

编者语

如果把这些趋势放在一起看,会发现一个非常明确的变化方向:

除了“围绕资产与交易的系统”之外,Web3依然还有更广阔的创业空间,比如“服务于AI与复杂系统的基础设施”。

无论是KYA、多模型协作、隐私计算、去中心化通信,还是可验证计算与规范驱动的安全体系,它们讨论的都不是“如何发行资产”,而是如何在一个高度自动化、由智能体参与的世界中,建立可信的协作、执行与责任边界。

这恰恰也是中国Web3创业者当前更现实、也更具长期价值的切入点:不碰金融红线,不依赖资产发行,而是围绕身份、隐私、计算、协作与可验证性,构建面向下一代技术体系的基础能力。

从这个角度看,Web3在中国并没有“消失”,而是正在回到它更底层、也更耐久的位置。

공유하기:

작성자: Portal Labs

이 글은 PANews 입주 칼럼니스트의 관점으로, PANews의 입장을 대표하지 않으며 법적 책임을 지지 않습니다.

글 및 관점은 투자 조언을 구성하지 않습니다

이미지 출처: Portal Labs. 권리 침해가 있을 경우 저자에게 삭제를 요청해 주세요.

PANews 공식 계정을 팔로우하고 함께 상승장과 하락장을 헤쳐나가세요
PANews APP
미국의 3대 주요 주식 지수는 모두 하락 마감했으며, COIN 지수는 7.59% 이상 떨어졌습니다.
PANews 속보