摘要:在近期举办的CES 2026大会上,英伟达(NVDA.O)正式宣布,其下一代数据中心计算平台“Vera Rubin”已进入量产阶段,并计划于2026年下半年通过合作伙伴面向市场推出系统产品。云服务商及远程算力提供商将率先导入该平台,并逐步开放试用与部署。与以往聚焦于单一GPU迭代的路径不同,Rubin平台被定义为一套高度协同设计的集成系统。它不仅仅包含Vera CPU与Rubin GPU,还融入了

在近期举办的CES 2026大会上,英伟达(NVDA.O)正式宣布,其下一代数据中心计算平台“Vera Rubin”已进入量产阶段,并计划于2026年下半年通过合作伙伴面向市场推出系统产品。云服务商及远程算力提供商将率先导入该平台,并逐步开放试用与部署。
与以往聚焦于单一GPU迭代的路径不同,Rubin平台被定义为一套高度协同设计的集成系统。它不仅仅包含Vera CPU与Rubin GPU,还融入了新一代互连芯片、网络处理芯片、数据中心处理器以及以太网交换芯片等关键组件。英伟达强调,该平台旨在从机架层级对计算、网络与数据路径进行整体优化,以应对大模型训练与推理任务对带宽、延迟及能效日益提升的综合需求。
此次披露中,英伟达确认组成Rubin平台的六颗核心芯片已从制造端回片,并顺利完成了多项关键测试,标志着产品正沿着面向客户部署的时间表稳步推进。这一进展在一定程度上缓解了此前市场对其新架构落地周期可能延长的担忧,并将外界关注点从“能否如期推出”转向“规模供应何时实现”以及“云端算力代际切换的实际进程”。
在性能方面,英伟达指出Rubin平台相较于前代Blackwell在AI训练与软件运行效能上均有显著提升,同时系统级运行成本进一步下降。这主要得益于其通过更少的组件实现相同或更高的吞吐能力。公司特别强调,平台化协同设计所带来的收益将直接体现在推理阶段单位token的成本降低,以及在长上下文应用场景中的效率优化——这也正是当前大模型竞争从参数规模转向推理与代理能力后,数据中心最为敏感的成本锚点。
在系统形态层面,英伟达展示了以NVL为代表的机架级解决方案。该旗舰系统以高密度整合GPU与CPU为基础,并可扩展为更大规模的集群形态,从而适配更高强度的训练与推理负载。与此同时,英伟达也突出了新一代互连、以太网及光互连等技术在提升装配效率、维护便捷性与整体能效方面的作用,旨在加速将“可用算力”转化为“可交付算力”。
客户侧,英伟达已与多家头部云服务及算力供应商达成合作,这些厂商预计将在2026年下半年导入Rubin平台,并将其作为新一轮AI基础设施升级的核心硬件底座。部分云厂商也在相近时间窗口释放出“为Rubin规模化部署做准备”的信号,显示供应链与需求侧正围绕该平台形成清晰的切换路径:即通过前期试用与小规模上线进行验证,后续再借助标准化机架方案实现快速扩容。
随着Rubin平台进入量产窗口期,下一阶段的关键将集中于几个现实变量:合作伙伴在下半年的实际出货节奏能否持续爬坡、云厂商是否会在全球更多数据中心加速推进硬件代际切换,以及该平台所宣称的单位token成本下降能否在真实业务负载与软件栈环境中得到兑现。这些问题的答案,将直接影响AI算力供给从“紧平衡”走向“更快扩张”的速度,并将决定2026年下半年全球数据中心资本开支的发力强度与方向。
