简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

CES 2026释放明确信号:英伟达Rubin走向量产,AI基础设施升级开始排期

2026-01-06 18:46

当地时间1月5日,英伟达(NVDA.O)在CES 2026的发布活动上披露,下一代数据中心计算平台“Vera Rubin”已推进至量产阶段,面向数据中心的整套系统将由合作伙伴在2026年下半年开始推出,云厂商与远程算力服务商将率先导入新一代硬件并开放试用与部署。

“六颗芯片”成为同一代产品主角

与过去外界更熟悉的“单颗GPU迭代”不同,Rubin被英伟达定义为一套极端协同设计的平台:它由Vera CPU、Rubin GPU以及新一代互连与网络、数据处理与以太网交换等关键芯片共同构成,目标是把计算、网络与数据通路在机架尺度上作为一个整体来优化,以适配大模型训练与推理对带宽、延迟与供电效率的同步拉升。

关键测试完成,交付节奏指向“可部署”节点

英伟达在此次披露中确认,Rubin平台相关的6颗芯片已经从制造合作伙伴处返回,并完成了若干里程碑测试,意味着产品正沿着面向客户部署的时间表前进。与此前市场担心新架构落地周期拉长的情绪相比,这一表态把焦点从“是否能按时做出来”拉回到“何时能形成规模供给”与“云端算力何时真正切换代际”。

性能与成本叙事更直指“单位token的效率”

在性能指标上,英伟达给出的核心口径是:Rubin相对Blackwell在训练侧与运行AI软件侧分别实现显著跃升,同时把系统级运行成本压到更低水平,原因在于以更少组件达到相同或更强的吞吐能力。

该公司同时强调,平台化协同带来的收益将体现在推理阶段的单位token成本与长上下文场景的效率上。这也是当下大模型从“参数规模竞赛”转向“推理与代理能力竞赛”时,数据中心最敏感的成本锚点。

从“卖卡”到“卖机架”,NVL级产品决定落地速度

配套系统形态上,英伟达展示了以NVL为代表的机架级方案:旗舰系统以大量GPU与CPU组合为基础,可进一步扩展为更大规模的“pods”形态,以适配更高强度的训练与推理集群需求。

围绕互连、以太网与光互连等环节,英伟达同步强调了新一代网络与机架集成方式对装配、维护与能效的影响,意图把“可用算力”更快转化为“可交付算力”。

微软等头部客户提前卡位,云端切换进入倒计时

在客户侧,英伟达点名多家头部云与算力服务商将导入Rubin系统,并将其作为2026年下半年新一轮AI基础设施升级的关键硬件底座。相关云厂商也在同一时间窗口释放“为Rubin规模化部署做准备”的信号,显示供给侧与需求侧正在围绕新平台形成更明确的切换路径:先以试用与小规模上线验证,再以标准化机架方案快速扩容。

接下来市场要等的,是“真实交付曲线”和“成本红利兑现”

随着Rubin进入量产窗口期,下一阶段最关键的现实变量集中在三个层面:合作伙伴在2H26的实际出货节奏能否连续爬坡、云厂商是否会在更多区域数据中心加速切换代际,以及系统级宣称的单位token成本下降能否在真实业务负载与软件栈条件下兑现。

对产业链而言,这些答案将直接决定AI算力供给从“紧平衡”走向“更快扩张”的速度,也将决定新一轮数据中心资本开支在2026年下半年的发力强度与方向。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。