要实现人工智能 (AI) 的规模化应用,唯一路径便是开展全栈式系统设计。加速器负责处理驱动 AI 模型的数学运算,而 CPU 才是支撑系统,将计算能力转化为实际价值的核心基础。随着 AI 基础设施向高密集成机架与超级集群架构演进,CPU 在系统的编排、协调、安全防护及规模化扩展中扮演着核心角色,其性能提升速度至少与加速器保持同步,很多情况下甚至更快。NVIDIA 于 2026 年国际消费电子展 (CES 2026) 上发布的 Vera Rubin 平台,正是这一趋势的有力佐证:该平台是一款完全协同设计的 AI 系统,可作为一个统一且一致的超级计算机运行,并以 Arm 技术为其核心驱动。
这反映出整个行业正朝着专用化、系统级 AI 平台转型:从底层架构出发,将计算、加速、网络、存储及安全功能紧密集成。超大规模云服务提供商与专注于 AI 领域的新型云服务提供商,正通过多种路径趋向该模式,譬如采用 NVIDIA 平台、亚马逊云科技的 Amazon Trainium 和谷歌的 TPU 等超大规模云服务提供商自研的加速器,以及融合商用芯片与定制化芯片的高度协同混合系统。如今,AI 的扩展和升级已不再仅依赖加速器的原始性能。在这些系统环境中,负责数据传输、同步、可靠性保障及隔离控制的 CPU 层至关重要。而在业界领先的集成式 AI 系统中,这一核心 CPU 层均基于 Arm 平台构建。
Arm 在推动 AI 时代的“极致协同设计”方面
发挥着决定性作用
Vera Rubin 平台集成六款经极致协同设计的芯片,包括 Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太网交换机。它们共同构成了 NVIDIA 所定义的 AI 超级计算机,针对训练、推理、逻辑推演及智能体 AI (Agentic AI) 工作负载进行了端到端优化,显著降低了每词元 (Token) 成本。该平台中 NVIDIA 基于 Arm 架构打造的 CPU 实现了高达六倍的代际性能提升,内存与互连带宽也得到了显著升级。这一切均是芯片与软件层面全系统优化的组成部分,共同推动着 NVL72 机架级 AI 系统整体性能的跃升。传统商用非定制 CPU 很难取得此类性能突破,必须采用专用化设计方案方可实现。
亚马逊云科技的 Amazon Trainium3 UltraServer 采用了类似的设计思路,将 Trainium3 加速器芯片与 Amazon Graviton CPU 及 Nitro 卡相结合,使基于 Arm 架构的专用芯片成为该平台的核心组件。
除了这些平台的覆盖广度,更值得我们关注的是其背后的架构理念。每个组件的设计都充分考量了与其他组件的协同性,从而在规模化部署中大幅减少性能瓶颈、提升运行效率。在 CES 2026 的主题演讲中,NVIDIA 首席执行官黄仁勋用“极致协同设计”一词定义这一转型趋势。要实现这种深度集成,不仅需要顶尖的性能与能效,还需要在不影响软件兼容性的前提下,为系统级芯片 (SoC) 设计提供充足的灵活性与创新空间 —— 而这正是 Arm 技术的价值所在。
Vera 和 BlueField:
Arm 位居 AI 创新核心
Vera Rubin 平台包含两款基于 Arm 技术打造的关键 SoC。
Vera 是一款专为大规模 AI 系统量身打造的 CPU,优化重点聚焦于数据传输、编排及智能体推理,而非传统通用型工作负载。该 CPU 采用单晶粒 (die) 88 颗核心打造,性能达到上一代 Grace CPU 的两倍,内存与芯片间带宽也实现了显著提升。
BlueField-4 标志着 DPU 领域的跨越式发展。通过集成基于 Arm Neoverse V2 平台的 Grace CPU(此前该 SoC 仅应用于高性能服务器级系统),NVIDIA 极大地扩展了 BlueField 在大规模 AI 基础设施中的应用场景。与前几代产品相比,BlueField-4 的 CPU 核心数从 16 颗增加至 64 颗,单核性能也得到显著提升。
对于大型智能体模型而言,内存容量与带宽正日益成为制约性能的关键瓶颈。通过将 BlueField-4 的计算能力提升至 BlueField-3 的六倍,NVIDIA 破解了这一难题,并成功将 DPU 升级为可独立运行的服务器级系统。NVIDIA 的发布充分印证了这一转变:除了在 Vera Rubin 刀片式服务器 (Blade) 中部署 BlueField-4 之外,该芯片还将作为一类新型 AI 推理专用存储服务器的控制器 —— 这类存储服务器专为补充机架级系统功能而设计。
Vera 与 BlueField-4 均完全兼容围绕 Arm Neoverse 平台构建的广泛软件生态系统,能够触达从边到云的超过 2,200 万开发者。目前,各大主流云服务提供商均已部署基于 Arm Neoverse 平台构建的 CPU 实例,企业级采用率也在持续提升。得益于此,这些基于 Arm 架构的 NVIDIA 系统可充分利用各类开源及商用软件,实现应用的快速、无缝开发与部署。
行业围绕统一架构凝心聚力
整个行业中,系统设计者正趋同于一种通用的 AI 架构模型:
面向 AI 计算的专用加速器;
用于编排与控制的高性能、高能效 CPU;
支持跨集群扩展的紧密系统级集成。
Arm Neoverse 平台的设计初衷便是支撑这一行业转型趋势,目前已被全球顶尖技术提供商(包括亚马逊云科技、谷歌、Meta、微软及 NVIDIA)应用于其系统中。在这一行业格局下,基于 Arm 架构的 CPU 正越来越多地为控制层、编排层及数据传输层赋能,成为 AI 规模化部署与应用的关键支撑。
AI 时代的规模化演进
迈入 2026 年,AI 的技术演进速度正前所未有地加快,且日益成为一个系统级 —— 甚至超系统级 —— 的复杂课题。如今,智能技术的扩展升级不仅依赖加速器的原始性能,同样取决于高效的数据存储与传输能力。将关键的 AI 相关功能卸载至网络与存储系统中强大且可编程的 CPU 架构,既能让加速器与主机 CPU 专注于核心的训练与推理负载,又能提升系统的隔离性、能效与可靠性。在硬件日益专用化的趋势下,如何在快速迭代的芯片世代中保持软件生态的一致性,已成为行业面临的关键课题。
随着 AI 系统在规模化与复杂性上的持续增长,Arm 及其生态系统在数据中心的各个层面所发挥的作用正不断扩大。Vera Rubin 平台的发布,既是这一发展轨迹的有力佐证,也是新年伊始,Arm 生态系统迈向新高度的重要里程碑。
-
ARM
+关注
关注
135文章
9583浏览量
393484 -
数据中心
+关注
关注
18文章
5754浏览量
75195 -
AI
+关注
关注
91文章
40927浏览量
302512
原文标题:CES 洞见 | Arm 赋能智能体时代,引领融合型 AI 数据中心规模化演进
文章出处:【微信号:Arm社区,微信公众号:Arm社区】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
精彩演讲·不容错过 | 智能规模化:平台驱动,赋能半导体全生态AI分析规模化落地
Arm CPU推动数据中心业务正加速发展
Arm架构计算平台驱动融合型AI数据中心变革
赛昉科技重磅发布新产品,RISC-V实现数据中心规模化商用突破
微软最新AI技术数据中心即将启用
Arm为何是扩展AI技术栈的理想之选
物联网数据中心是什么?有什么功能?
睿海光电以高效交付与广泛兼容助力AI数据中心800G光模块升级
加速AI未来,睿海光电800G OSFP光模块重构数据中心互联标准
国民技术发布面向AI数据中心的3 kW数字电源参考设计方案
重新思考数据中心架构,推进AI的规模化落地
Arm技术驱动融合型AI数据中心规模化演进
评论