简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

NVIDIA Vera Rubin 开启代理AI前沿

2026-03-16 19:28

七款全新芯片全面投产,助力打造全球最大规模的人工智能工厂。这些芯片具备可配置的人工智能基础设施,针对人工智能的各个阶段进行了优化,涵盖从预训练、后训练和测试时扩展到智能体推理的各个环节。

英伟达 Vera Rubin

The NVIDIA Vera Rubin platform is opening the agentic AI frontier with seven new chips in full production and five racks to scale the world’s largest AI factories for every phase of AI.

NVIDIA Vera Rubin 平台凭借七款全面投产的新芯片和五个机架,开启了智能人工智能的前沿领域,可扩展全球最大的人工智能工厂,满足人工智能的各个阶段的需求。

新闻摘要:
NVIDIA Vera Rubin 平台正在开启人工智能的下一个前沿领域:

  • Vera Rubin NVL72 GPU机架
  • Vera CPU机架
  • NVIDIA Groq 3 LPX 推理加速器机架
  • NVIDIA BlueField-4 STX 存储机架
  • NVIDIA Spectrum-6 SPX 以太网机架

加州圣何塞,2026 年 3 月 16 日(GLOBE NEWSWIRE) —— GTC ——NVIDIA 今天宣布,NVIDIA Vera Rubin 平台正在开启智能人工智能的下一个前沿领域,目前已有七款新芯片全面投产,以扩展全球最大的 AI 工厂。

该平台整合了 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 交换机、NVIDIA ConnectX® - 9 超级网卡、NVIDIA BlueField® - 4 DPU 和 NVIDIA Spectrum™-6 以太网交换机,以及新集成的 NVIDIA Groq 3 LPU。这些芯片协同工作,构成一台强大的 AI 超级计算机,为 AI 的各个阶段提供支持——从大规模预训练、后训练和测试时扩展,到实时智能推理。

“Vera Rubin 是一次代际飞跃——它包含七款突破性芯片、五个机架和一个巨型超级计算机——旨在为人工智能的各个阶段提供动力,”英伟达创始人兼首席执行官黄仁勋表示。“随着 Vera Rubin 的启动,人工智能的智能体化阶段已经到来,它也开启了史上规模最大的基础设施建设。”

Anthropic 首席执行官兼联合创始人 Dario Amodei 表示:“企业和开发人员正在使用 Claude 进行日益复杂的推理、智能工作流程和关键任务决策。这需要能够跟上步伐的基础设施。NVIDIA 的 Vera Rubin 平台为我们提供了计算、网络和系统设计方面的能力,使我们能够在持续交付的同时,提升客户所依赖的安全性和可靠性。”

OpenAI首席执行官Sam Altman表示:“NVIDIA的基础设施是我们不断推进人工智能前沿发展的基石。借助NVIDIA Vera Rubin,我们将能够大规模运行更强大的模型和智能体,并为数亿用户提供更快、更可靠的系统。”

转向按需生产规模系统
人工智能基础设施正在飞速发展——从独立芯片和独立服务器到完全集成的机架级系统、POD级部署、人工智能工厂和自主人工智能。这些进步显著提升了性能,提高了各行各业、各种规模组织的成本效益——从初创企业和中型企业到公私合营机构和大型企业——同时还有助于普及人工智能,并提高能源效率,从而为全球最苛刻的工作负载提供动力。

通过对计算、网络和存储进行深度协同设计,并借助由 80 多个 NVIDIA MGX 生态系统合作伙伴组成的全球供应链生态系统的支持,NVIDIA Vera Rubin 提供了最广泛的 NVIDIA POD 规模平台——一个超级计算机,其中多个专为 AI 构建的机架协同工作,形成一个庞大而连贯的系统。

NVIDIA Vera Rubin NVL72 机架
Vera Rubin NVL72 集成了 72 个 Rubin GPU 和 36 个 Vera CPU,通过 NVLink 6 连接,并配备了 ConnectX-9 SuperNIC 和 BlueField-4 DPU,实现了突破性的效率——与 NVIDIA Blackwell 平台相比,使用四分之一数量的 GPU 即可训练大型混合专家模型,并且每瓦的推理吞吐量提高了 10 倍,而每个令牌的成本仅为十分之一。

NVL72 专为全球超大规模 AI 工厂而设计,可与 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X 以太网无缝扩展,从而在大规模 GPU 集群中保持高利用率,同时缩短训练时间和降低总体拥有成本。

NVIDIA Vera CPU机架
强化学习和智能体人工智能工作负载依赖于大量的基于 CPU 的环境来测试和验证在 GPU 系统上运行的模型生成的结果。

NVIDIA Vera CPU 机架提供基于 NVIDIA MGX 的密集型液冷基础设施,集成 256 个 Vera CPU,可提供可扩展、节能的容量以及世界一流的单线程性能,从而大规模释放智能 AI 的潜力。

Vera CPU机架集成了Spectrum-X以太网,确保整个AI工厂的CPU环境紧密同步。它们与GPU计算机架协同工作,为大规模智能体AI和强化学习提供CPU基础架构——Vera的效率是传统CPU的两倍,速度提升50%。

NVIDIA Groq 3 LPX 机架
NVIDIA Groq 3 LPX 是加速计算领域的一个里程碑。LPX 和 Vera Rubin 专为满足智能体系统对低延迟和大上下文的需求而设计,结合了两款处理器的卓越性能,每兆瓦功耗的推理吞吐量最高可提升 35 倍,万亿参数模型的收益机会最高可提升 10 倍。

大规模部署时,LPU 集群可作为一个巨型单处理器,实现快速、确定性的推理加速。配备 256 个 LPU 处理器的 LPX 机架拥有 128GB 片上 SRAM 和 640 TB/s 的扩展带宽。与 Vera Rubin NVL72 集成,Rubin GPU 和 LPU 通过联合计算每个输出标记的 AI 模型每一层,显著提升解码速度。

针对万亿参数模型和百万级上下文进行了优化的LPX架构与Vera Rubin协同设计,可最大限度地提高功耗、内存和计算效率。更高的每瓦吞吐量和更优异的令牌性能,开启了超高端万亿参数、百万级上下文推理的新纪元,为所有AI提供商拓展了营收机会。LPX采用全液冷设计,基于MGX基础设施构建,可无缝集成到将于今年下半年推出的下一代Vera Rubin AI工厂中。

NVIDIA BlueField-4 STX 存储机架
NVIDIA BlueField-4 STX机架级系统是一种原生 AI 存储基础设施,可将 GPU 内存无缝扩展到整个 POD(物理数据中心)。STX 由 BlueField-4 提供支持——BlueField-4 结合了 NVIDIA Vera CPU 和 NVIDIA ConnectX-9 SuperNIC——提供了一个高带宽共享层,该层针对存储和检索大型语言模型和智能 AI 工作流生成的海量键值缓存数据进行了优化。

NVIDIA DOCA Memos™ 是一种全新的 DOCA 框架,可显著提升 BlueField-4 存储的性能。它支持专用的键值缓存存储处理,与通用存储架构相比,推理吞吐量最高可提升 5 倍,同时显著提高能效。最终实现 POD 范围内的上下文信息,从而加快与 AI 代理的多轮交互速度,提供更具可扩展性的 AI 服务,并提高整体基础设施利用率。

Mistral AI联合创始人兼首席技术官Timothée Lacroix表示:“NVIDIA BlueField-4 STX机架式上下文内存存储系统将带来至关重要的性能提升,这对于我们大规模扩展智能体人工智能项目至关重要。STX提供了一个专为人工智能代理内存打造的全新存储层,能够确保我们的模型在处理海量数据集时保持一致性和速度。”

NVIDIA Spectrum-6 SPX 以太网机架
Spectrum-6 SPX 以太网专为加速人工智能工厂的东西向流量而设计。它可配置 Spectrum-X 以太网或 NVIDIA Quantum-X800 InfiniBand 交换机,从而大规模地提供低延迟、高吞吐量的机架间连接。

Spectrum-X 以太网光子学采用共封装光学器件,与传统可插拔收发器相比,光功率效率提高了 5 倍,弹性提高了 10 倍。

提高韧性和能源效率
NVIDIA携手200多家数据中心基础设施合作伙伴,共同发布了面向Vera Rubin的NVIDIA DSX平台。该平台包含DSX Max-Q,可在整个AI工厂实现动态电源配置,从而在固定功率数据中心内部署多30%的AI基础设施。全新的DSX Flex软件使AI工厂成为电网灵活资产,释放100吉瓦的闲置电网电力。

NVIDIA 今天还发布了Vera Rubin DSX AI Factory 参考设计,这是一个用于代码设计的 AI 基础设施的蓝图,可最大限度地提高每瓦的令牌数和整体吞吐量,从而提高系统弹性并加快首次投入生产的时间。

通过将计算、网络、存储、电源和冷却紧密集成,该架构提高了能源效率,并确保 AI 工厂能够在持续、高强度工作负载下可靠地扩展,并实现最大程度的正常运行时间。

广泛的生态系统支持
基于 Vera Rubin 技术的产品将从今年下半年开始通过合作伙伴提供。这些合作伙伴包括领先的云服务提供商亚马逊网络服务 (AWS)、谷歌云、微软 Azure 和甲骨文云基础设施,以及 NVIDIA 云合作伙伴 CoreWeave、 Crusoe 、Lambda、 NebiusNscale和 Together AI。

全球系统制造商思科、 戴尔科技HPE 、联想和超微预计将推出基于 Vera Rubin 产品的各种服务器,此外还有Aivres华硕、富士康、技嘉、英业达、和硕、广达云科技 (QCT)、纬创资通和Wiwynn等公司的产品。

包括 Anthropic、Meta、Mistral AI 和 OpenAI 在内的 AI 实验室和前沿模型开发商正在寻求使用 NVIDIA Vera Rubin 平台来训练更大、更强大的模型,并以比以往 GPU 更低的延迟和成本为长上下文、多模态系统提供服务。

关于 NVIDIA
英伟达(NASDAQ:NVDA)是人工智能和加速计算领域的全球领导者。

如需了解更多信息,请联系:
克里斯汀·内山
英伟达公司
press@nvidia.com

本新闻稿中的某些陈述,包括但不限于以下陈述:Rubin 的到来恰逢其时;凭借我们每年推出新一代 AI 超级计算机的节奏——以及六款全新芯片的深度协同设计——Rubin 将向 AI 的下一个前沿领域迈出巨大一步;Vera Rubin 是一次世代飞跃,旨在为 AI 的各个阶段提供动力;Vera Rubin 开启了史上规模最大的基础设施建设;NVIDIA 产品、服务和技术的优势、影响、性能和可用性;对 NVIDIA 第三方安排(包括与其合作方和合作伙伴的安排)的预期;对技术发展的预期;除历史事实陈述外,其他陈述均构成经修订的1933年《证券法》第27A条和经修订的1934年《证券交易法》第21E条所界定的前瞻性陈述。这些陈述受上述条款所设立的“安全港”条款的保护,该条款基于管理层的信念和假设以及管理层目前可获得的信息,但同时也受到风险和不确定性的影响,这些风险和不确定性可能导致实际结果与预期存在重大差异。可能导致实际结果与预期存在重大差异的重要因素包括:全球经济和政治状况;NVIDIA依赖第三方进行产品的制造、组装、包装和测试;技术发展和竞争的影响;新产品和新技术的开发或NVIDIA现有产品和技术的改进;NVIDIA产品或NVIDIA合作伙伴产品的市场接受度;设计、制造或软件缺陷;消费者偏好或需求的变化;行业标准和接口的变化;NVIDIA产品或技术集成到系统后性能意外下降;以及适用法律法规的变更,以及NVIDIA不时向美国证券交易委员会(SEC)提交的最新报告中详述的其他因素,包括但不限于其10-K表年度报告和10-Q表季度报告。提交给SEC的报告副本已发布在公司网站上,也可从NVIDIA免费获取。这些前瞻性声明并非对未来业绩的保证,仅代表截至本声明发布之日的信息。除法律要求外,NVIDIA不承担任何更新这些前瞻性声明以反映未来事件或情况的义务。

本文所述的许多产品和功能仍处于不同阶段,并将视具体情况而定。以上声明并非承诺、保证或法律义务,也不应被解释为承诺、保证或法律义务。我们产品的任何特性或功能的开发、发布和时间安排均可能变更,且最终解释权归 NVIDIA 所有。NVIDIA 对未能交付或延迟交付本文所述的任何产品、特性或功能不承担任何责任。

© 2026 NVIDIA 公司。保留所有权利。NVIDIA、NVIDIA 徽标、BlueField、CMX、ConnectX、DOCA Memos、MGX、NVIDIA Spectrum、NVIDIA Spectrum-X 和 NVLink 是 NVIDIA 公司在美国和其他国家/地区的商标和/或注册商标。其他公司和产品名称可能是其各自关联公司的商标。功能、价格、供货情况和规格如有变更,恕不另行通知。

本公告附带的照片可在以下网址查看:https://www.globenewswire.com/NewsRoom/AttachmentNg/609a01e9-b303-4f10-a3f8-bd5465666a51


风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。