熱門資訊> 正文
2026-03-16 19:28
七款全新芯片全面投产,助力打造全球最大规模的人工智能工厂。这些芯片具备可配置的人工智能基础设施,针对人工智能的各个阶段进行了优化,涵盖从预训练、后训练和测试时扩展到智能体推理的各个环节。
英伟达 Vera Rubin
新闻摘要:
NVIDIA Vera Rubin 平台正在开启人工智能的下一个前沿领域:
加州圣何塞,2026 年 3 月 16 日(GLOBE NEWSWIRE) —— GTC ——NVIDIA 今天宣布,NVIDIA Vera Rubin 平台正在开启智能人工智能的下一个前沿领域,目前已有七款新芯片全面投产,以扩展全球最大的 AI 工厂。
该平台整合了 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink™ 6 交换机、NVIDIA ConnectX® - 9 超级网卡、NVIDIA BlueField® - 4 DPU 和 NVIDIA Spectrum™-6 以太网交换机,以及新集成的 NVIDIA Groq 3 LPU。这些芯片协同工作,构成一台强大的 AI 超级计算机,为 AI 的各个阶段提供支持——从大规模预训练、后训练和测试时扩展,到实时智能推理。
“Vera Rubin 是一次代际飞跃——它包含七款突破性芯片、五个机架和一个巨型超级计算机——旨在为人工智能的各个阶段提供动力,”英伟达创始人兼首席执行官黄仁勋表示。“随着 Vera Rubin 的启动,人工智能的智能体化阶段已经到来,它也开启了史上规模最大的基础设施建设。”
Anthropic 首席执行官兼联合创始人 Dario Amodei 表示:“企业和开发人员正在使用 Claude 进行日益复杂的推理、智能工作流程和关键任务决策。这需要能够跟上步伐的基础设施。NVIDIA 的 Vera Rubin 平台为我们提供了计算、网络和系统设计方面的能力,使我们能够在持续交付的同时,提升客户所依赖的安全性和可靠性。”
OpenAI首席执行官Sam Altman表示:“NVIDIA的基础设施是我们不断推进人工智能前沿发展的基石。借助NVIDIA Vera Rubin,我们将能够大规模运行更强大的模型和智能体,并为数亿用户提供更快、更可靠的系统。”
转向按需生产规模系统
人工智能基础设施正在飞速发展——从独立芯片和独立服务器到完全集成的机架级系统、POD级部署、人工智能工厂和自主人工智能。这些进步显著提升了性能,提高了各行各业、各种规模组织的成本效益——从初创企业和中型企业到公私合营机构和大型企业——同时还有助于普及人工智能,并提高能源效率,从而为全球最苛刻的工作负载提供动力。
通过对计算、网络和存储进行深度协同设计,并借助由 80 多个 NVIDIA MGX 生态系统合作伙伴组成的全球供应链生态系统的支持,NVIDIA Vera Rubin 提供了最广泛的 NVIDIA POD 规模平台——一个超级计算机,其中多个专为 AI 构建的机架协同工作,形成一个庞大而连贯的系统。
NVIDIA Vera Rubin NVL72 机架
Vera Rubin NVL72 集成了 72 个 Rubin GPU 和 36 个 Vera CPU,通过 NVLink 6 连接,并配备了 ConnectX-9 SuperNIC 和 BlueField-4 DPU,实现了突破性的效率——与 NVIDIA Blackwell 平台相比,使用四分之一数量的 GPU 即可训练大型混合专家模型,并且每瓦的推理吞吐量提高了 10 倍,而每个令牌的成本仅为十分之一。
NVL72 专为全球超大规模 AI 工厂而设计,可与 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X 以太网无缝扩展,从而在大规模 GPU 集群中保持高利用率,同时缩短训练时间和降低总体拥有成本。
NVIDIA Vera CPU机架
强化学习和智能体人工智能工作负载依赖于大量的基于 CPU 的环境来测试和验证在 GPU 系统上运行的模型生成的结果。
NVIDIA Vera CPU 机架提供基于 NVIDIA MGX 的密集型液冷基础设施,集成 256 个 Vera CPU,可提供可扩展、节能的容量以及世界一流的单线程性能,从而大规模释放智能 AI 的潜力。
Vera CPU机架集成了Spectrum-X以太网,确保整个AI工厂的CPU环境紧密同步。它们与GPU计算机架协同工作,为大规模智能体AI和强化学习提供CPU基础架构——Vera的效率是传统CPU的两倍,速度提升50%。
NVIDIA Groq 3 LPX 机架
NVIDIA Groq 3 LPX 是加速计算领域的一个里程碑。LPX 和 Vera Rubin 专为满足智能体系统对低延迟和大上下文的需求而设计,结合了两款处理器的卓越性能,每兆瓦功耗的推理吞吐量最高可提升 35 倍,万亿参数模型的收益机会最高可提升 10 倍。
大规模部署时,LPU 集群可作为一个巨型单处理器,实现快速、确定性的推理加速。配备 256 个 LPU 处理器的 LPX 机架拥有 128GB 片上 SRAM 和 640 TB/s 的扩展带宽。与 Vera Rubin NVL72 集成,Rubin GPU 和 LPU 通过联合计算每个输出标记的 AI 模型每一层,显著提升解码速度。
针对万亿参数模型和百万级上下文进行了优化的LPX架构与Vera Rubin协同设计,可最大限度地提高功耗、内存和计算效率。更高的每瓦吞吐量和更优异的令牌性能,开启了超高端万亿参数、百万级上下文推理的新纪元,为所有AI提供商拓展了营收机会。LPX采用全液冷设计,基于MGX基础设施构建,可无缝集成到将于今年下半年推出的下一代Vera Rubin AI工厂中。
NVIDIA BlueField-4 STX 存储机架
NVIDIA BlueField-4 STX机架级系统是一种原生 AI 存储基础设施,可将 GPU 内存无缝扩展到整个 POD(物理数据中心)。STX 由 BlueField-4 提供支持——BlueField-4 结合了 NVIDIA Vera CPU 和 NVIDIA ConnectX-9 SuperNIC——提供了一个高带宽共享层,该层针对存储和检索大型语言模型和智能 AI 工作流生成的海量键值缓存数据进行了优化。
NVIDIA DOCA Memos™ 是一种全新的 DOCA 框架,可显著提升 BlueField-4 存储的性能。它支持专用的键值缓存存储处理,与通用存储架构相比,推理吞吐量最高可提升 5 倍,同时显著提高能效。最终实现 POD 范围内的上下文信息,从而加快与 AI 代理的多轮交互速度,提供更具可扩展性的 AI 服务,并提高整体基础设施利用率。
Mistral AI联合创始人兼首席技术官Timothée Lacroix表示:“NVIDIA BlueField-4 STX机架式上下文内存存储系统将带来至关重要的性能提升,这对于我们大规模扩展智能体人工智能项目至关重要。STX提供了一个专为人工智能代理内存打造的全新存储层,能够确保我们的模型在处理海量数据集时保持一致性和速度。”
NVIDIA Spectrum-6 SPX 以太网机架
Spectrum-6 SPX 以太网专为加速人工智能工厂的东西向流量而设计。它可配置 Spectrum-X 以太网或 NVIDIA Quantum-X800 InfiniBand 交换机,从而大规模地提供低延迟、高吞吐量的机架间连接。
Spectrum-X 以太网光子学采用共封装光学器件,与传统可插拔收发器相比,光功率效率提高了 5 倍,弹性提高了 10 倍。
提高韧性和能源效率
NVIDIA携手200多家数据中心基础设施合作伙伴,共同发布了面向Vera Rubin的NVIDIA DSX平台。该平台包含DSX Max-Q,可在整个AI工厂实现动态电源配置,从而在固定功率数据中心内部署多30%的AI基础设施。全新的DSX Flex软件使AI工厂成为电网灵活资产,释放100吉瓦的闲置电网电力。
NVIDIA 今天还发布了Vera Rubin DSX AI Factory 参考设计,这是一个用于代码设计的 AI 基础设施的蓝图,可最大限度地提高每瓦的令牌数和整体吞吐量,从而提高系统弹性并加快首次投入生产的时间。
通过将计算、网络、存储、电源和冷却紧密集成,该架构提高了能源效率,并确保 AI 工厂能够在持续、高强度工作负载下可靠地扩展,并实现最大程度的正常运行时间。
广泛的生态系统支持
基于 Vera Rubin 技术的产品将从今年下半年开始通过合作伙伴提供。这些合作伙伴包括领先的云服务提供商亚马逊网络服务 (AWS)、谷歌云、微软 Azure 和甲骨文云基础设施,以及 NVIDIA 云合作伙伴 CoreWeave、 Crusoe 、Lambda、 Nebius 、 Nscale和 Together AI。
全球系统制造商思科、 戴尔科技、 HPE 、联想和超微预计将推出基于 Vera Rubin 产品的各种服务器,此外还有Aivres 、 华硕、富士康、技嘉、英业达、和硕、广达云科技 (QCT)、纬创资通和Wiwynn等公司的产品。
包括 Anthropic、Meta、Mistral AI 和 OpenAI 在内的 AI 实验室和前沿模型开发商正在寻求使用 NVIDIA Vera Rubin 平台来训练更大、更强大的模型,并以比以往 GPU 更低的延迟和成本为长上下文、多模态系统提供服务。
关于 NVIDIA
英伟达(NASDAQ:NVDA)是人工智能和加速计算领域的全球领导者。
如需了解更多信息,请联系:
克里斯汀·内山
英伟达公司
press@nvidia.com
本新闻稿中的某些陈述,包括但不限于以下陈述:Rubin 的到来恰逢其时;凭借我们每年推出新一代 AI 超级计算机的节奏——以及六款全新芯片的深度协同设计——Rubin 将向 AI 的下一个前沿领域迈出巨大一步;Vera Rubin 是一次世代飞跃,旨在为 AI 的各个阶段提供动力;Vera Rubin 开启了史上规模最大的基础设施建设;NVIDIA 产品、服务和技术的优势、影响、性能和可用性;对 NVIDIA 第三方安排(包括与其合作方和合作伙伴的安排)的预期;对技术发展的预期;除历史事实陈述外,其他陈述均构成经修订的1933年《证券法》第27A条和经修订的1934年《证券交易法》第21E条所界定的前瞻性陈述。这些陈述受上述条款所设立的“安全港”条款的保护,该条款基于管理层的信念和假设以及管理层目前可获得的信息,但同时也受到风险和不确定性的影响,这些风险和不确定性可能导致实际结果与预期存在重大差异。可能导致实际结果与预期存在重大差异的重要因素包括:全球经济和政治状况;NVIDIA依赖第三方进行产品的制造、组装、包装和测试;技术发展和竞争的影响;新产品和新技术的开发或NVIDIA现有产品和技术的改进;NVIDIA产品或NVIDIA合作伙伴产品的市场接受度;设计、制造或软件缺陷;消费者偏好或需求的变化;行业标准和接口的变化;NVIDIA产品或技术集成到系统后性能意外下降;以及适用法律法规的变更,以及NVIDIA不时向美国证券交易委员会(SEC)提交的最新报告中详述的其他因素,包括但不限于其10-K表年度报告和10-Q表季度报告。提交给SEC的报告副本已发布在公司网站上,也可从NVIDIA免费获取。这些前瞻性声明并非对未来业绩的保证,仅代表截至本声明发布之日的信息。除法律要求外,NVIDIA不承担任何更新这些前瞻性声明以反映未来事件或情况的义务。
本文所述的许多产品和功能仍处于不同阶段,并将视具体情况而定。以上声明并非承诺、保证或法律义务,也不应被解释为承诺、保证或法律义务。我们产品的任何特性或功能的开发、发布和时间安排均可能变更,且最终解释权归 NVIDIA 所有。NVIDIA 对未能交付或延迟交付本文所述的任何产品、特性或功能不承担任何责任。
© 2026 NVIDIA 公司。保留所有权利。NVIDIA、NVIDIA 徽标、BlueField、CMX、ConnectX、DOCA Memos、MGX、NVIDIA Spectrum、NVIDIA Spectrum-X 和 NVLink 是 NVIDIA 公司在美国和其他国家/地区的商标和/或注册商标。其他公司和产品名称可能是其各自关联公司的商标。功能、价格、供货情况和规格如有变更,恕不另行通知。
本公告附带的照片可在以下网址查看:https://www.globenewswire.com/NewsRoom/AttachmentNg/609a01e9-b303-4f10-a3f8-bd5465666a51