天极大咖秀

登录 | 申请注册

MWC2026观察:通用算力开始进入“超节点时代”

智能进化论 2026-03-16 阅读: 4,201 次

导读:AI重塑CPU产业角色

ChatGPT问世之后,全球算力产业的叙事几乎被GPU主导。但这恰恰遮蔽了另一个更重要的变化:AI时代以CPU为基础的通用算力并没有被削弱,反而重塑了产业地位。

今天的大模型系统,从数据预处理、检索增强、任务编排,到存储访问、网络通信、推理调度,许多关键环节依然运行在CPU侧。这意味着,AI带来的变化不只是GPU更重要了,而在推动整个数据/智算中心进入一个对系统协同要求更高的新阶段。

不久前的MWC 2026上,华为展示了全球首款通算超节点TaiShan 950 SuperPoD,基于超节点架构与灵衢(UnifiedBus)互联协议,能够为破解通算集群性能瓶颈提供新选择。

这不仅仅是华为首次在海外展示算力产品,更重要的是,如果把其放到更大的产业坐标中理解:当AI把计算需求推向超大规模、低时延、强协同之后,通用算力也到了必须进行架构升级的时候。通用算力,正在进入“超节点时代”。

AI时代,通用算力的新角色

过去一段时间,外界很容易把CPU理解为AI时代的背景板:训练看GPU,推理看GPU,CPU似乎只是辅助角色。但现实恰恰相反。AI系统越复杂,CPU越不可能缺席。

AI时代,CPU正从单点算力提供者,变成算力系统协同的组织者。

这也是为什么近两年头部CPU厂商的战略路线都不再只强调核心数、频率或制程,而更聚焦:更高的内存带宽、更强的AI加速能力、更好的GPU协同,以及更低总体拥有成本。

英特尔发布Xeon 6系列时,直接将其定义为“AI系统主控CPU”,并强调“更高内存带宽”和“每个核心都具备AI加速”;AMD也在持续强化同一判断:数据中心不应把AI与通算切割成彼此孤立的基础设施,EPYC既要支撑传统工作负载,也要承接推理、预处理和GPU协同等AI链路。

这背后折射出的,其实是通用算力产业的一次深层转向:AI时代,CPU的价值不再主要取决于单颗芯片还能提升多少性能,而是取决于它能否在大规模、低时延、强协同的环境中,把整个AI系统真正组织起来、带动起来。

为什么通用算力也需要超节点?

如果说AI时代重新定义了CPU,那么随之被改写的,就不只是单颗处理器的角色,还有通算基础设施本身,后者才是AI算力底座的主体。

过去很长一段时间,通算集群遵循的是一套熟悉的逻辑:业务增长了,就扩容服务器;并发压力上来了,就增加节点数量。但到了AI时代,这套路径正在越来越快地逼近边界。

原因并不复杂。今天的通算负载,已经不再是传统意义上边界清晰、链路简单、节点相对独立的任务,而是呈现出数据量更大、链路更长、实时性更强、节点间协同更频繁等特征。

互联网搜索正在从关键词检索走向多模态理解和长链路推理;大模型应用开始承载更复杂的推理任务、代码生成和多Agent协同;在金融行业,极速交易、实时风控、反欺诈等场景天然就对时延极为敏感。

在过去两年的智算集群建设中,超节点、超集群技术早已成为行业共识。头部科技巨头殊途同归,都在试图解决一个核心痛点:当集群规模达到万卡及以上级别,决定算力上限的不再是单卡性能,而是节点间的连接。如今,通用算力也撞上了同一堵“连接之墙”。

传统服务器集群基于以太网连接,服务器之间带宽不足、时延偏高、跨节点数据访问成本大,导致服务器越堆越多,算力利用率却下降。总之,通算集群无法在旧的架构下靠堆服务器数量解决,产业呼唤一种全新的互联协议与系统架构。

基于鲲鹏算力的TaiShan 950 SuperPoD超节点正是在这样的背景下诞生的。它提示了一个正在到来的趋势:CPU也走到需要架构性重构的转折点,通算基础设施正在从传统集群,转向超节点时代。

灵衢(UnifiedBus)是华为2025年9月发布的面向超节点的互联协议,它能把数万卡规模的集群联接成一个超节点,能够像一台计算机一样协同。这样的超节点具备三大特征:大带宽、低时延和内存统一编址。大带宽和低时延不必多言,内存统一编址能够实现统一CPU、NPU内存语义,不管数据存在哪块内存里,都只有一个“全局地址”。

基于灵衢和超节点创新,TaiShan 950 SuperPoD在数据库、虚机热迁移和大数据等典型通算场景下,能够实现百纳秒级超低时延、TB级超大带宽和内存池化能力。

超节点,能否成为通算产业共识?

要判断超节点是不是通算的未来,不能只看某一家的技术方案,更要看三大要素:普遍需求、可落地路径、开放生态能力。

第一,它解决的是否是产业共性问题,而非个别场景问题

从今天的数据中心演进趋势看,这一点正越来越清晰。搜索、推荐、在线推理、数据库、虚拟化、实时风控、大数据分析,这些原本就高度依赖通用算力的场景,正在因为AI能力的嵌入而变得更复杂、更实时,也更依赖系统级协同。麦肯锡预计,到2030年全球数据中心容量需求将达到当前水平的近三倍。

这意味着,互联、内存和协同效率问题,不会只停留在少数超大模型场景,而会逐步成为更广泛数据中心面临的普遍挑战,这也是超节点的强项。

第二,能不能接入现有体系,而不是要求客户“推倒重来”

对基础设施创新来说,“先进”从来不是唯一标准,“可落地”同样重要。超节点能不能普及,除了集群性能的大幅跃升,还在于能否以尽可能低的部署成本嵌入现有数据中心,而且可演进、可复制。客户真正关心的,不只是某个节点快了多少,而是迁移成本高不高、适配周期长不长、运维是否可控。

TaiShan 950 SuperPoD通过创新的线缆连接方式构建超节点,它做到了不改变通用服务器的标准形态,也不破坏传统机房的部署规范。这种“即插即用”的设计大幅拉低了部署门槛,让企业无需舍弃过去的基础设施投资,就能平滑获取新架构的性能红利。

第三,能否形成开放生态

算力基础设施从来不是单点竞争,而是操作系统、数据库、编译器、中间件、应用使能软件、开发工具和伙伴共同参与的系统性竞争。

如果一种新架构只能在封闭体系内运行,或者必须依赖单一厂商完整包办,那么它即便技术再先进,也很难成为产业共识。只有让更多上下游伙伴能接得上、用得起、能持续演进,算力生态才能生生不息。因此,开源开放不是锦上添花,而是布局算力产业的前提条件。

TaiShan 950 SuperPoD超节点背后,是华为多年坚持开源开放理念的通算生态投入。2021年华为已经将openEuler捐赠给开放原子开源基金会,目前openEuler社区已汇聚超2100家企业与机构,装机量突破1600万套。同时,openGauss数据库、BoostKit应用使能软件、操作系统灵衢组件也已经全部开源。将核心技术沉淀为产业公共基础设施的开源理念,成为是超节点架构能够真正凝聚全产业势能的保障。

结语

超节点不只是一种新产品形态,而是为全球算力产业提供了一种不同于旧路径的全新演进方向。

它最终能否成为主流,还有待时间验证。但可以确定的是,通用算力的竞争,已经从过去的“堆资源”转向“重构系统”,这或许是全球通算基础设施迈向下一阶段的开端。

END

本文为「智能进化论」原创作品。

智能进化论
专注云计算、AI、数字化转型领域深度报道。

特别声明:文章版权归原作者所有,文章内容为作者个人观点,不代表大咖秀专栏的立场,转载请联系原作者获取授权。(有任何疑问都请联系wemedia@yesky.com)