简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

强强联合!英伟达携手合作伙伴,为Vera Rubin打造下一代高效千兆瓦AI工厂

2025-10-14 05:22

Open Compute Project全球峰会上,英伟达勾勒了千兆瓦级 AI 工厂未来蓝图。

美东时间10月13日,$英伟达 (NVDA.US)$正式公布NVIDIA Vera Rubin NVL144这一MGX代际开放式架构机架服务器的技术规格。此外,目前已有50余家MGX合作伙伴正为该产品做准备,同时还将为英伟达Kyber提供生态支持。

约20余家行业合作伙伴在峰会上展示了新一代核心技术与组件,包括新型芯片、元器件、电力系统,以及对千兆瓦时代800伏直流(VDC)数据中心的支持能力,这些技术均将为英伟达Kyber机架架构提供支撑。

  • Foxconn(富士康)详细介绍了其正在台湾建设的40兆瓦级高雄1号(Kaohsiung-1)数据中心,该数据中心专为适配800伏直流系统而设计。

  • $CoreWeave (CRWV.US)$ 、Lambda、$NEBIUS (NBIS.US)$$甲骨文 (ORCL.US)$与TogetherAI等行业先驱企业,也在推进800伏直流数据中心的设计工作。

  • $Vertiv Holdings (VRT.US)$发布了兼具空间效率、成本效益与能源效率的800伏直流MGX参考架构——这是一套完整的电力与制冷基础设施架构。

相较于传统的415伏或480伏交流(VAC)三相系统,迁移至800伏直流基础设施能为数据中心带来多重优势:更高的扩展性、更优的能源效率、更少的材料消耗,以及更强的性能承载能力。电动汽车与太阳能行业已率先采用800伏直流基础设施,正是看中了这些核心优势。

  • $慧与科技 (HPE.US)$则宣布将为英伟达Kyber提供产品支持,并支持英伟达Spectrum-XGS以太网跨规模技术(该技术是Spectrum-X以太网平台的组成部分)。

  • $Meta Platforms (META.US)$ 发起的OpenComputeProject(OCP)汇聚了数百名计算与网络服务提供商的行业联盟,其核心目标是重新设计硬件技术,以高效满足计算基础设施日益增长的需求。

Vera Rubin NVL144:为AI工厂规模化而生

NVIDIA Vera Rubin NVL144 MGX 计算托盘采用高能效设计,支持 100% 液冷,且具备模块化特性。其核心印刷电路板中板取代了传统的线缆连接方式,不仅加快了组装速度,还提升了可维护性;同时配备模块化扩展槽,可兼容 NVIDIA ConnectX-9 800GB/s 网络设备与 NVIDIA Rubin CPX(适用于大规模上下文推理场景)。

NVIDIA Vera Rubin NVL144 在加速计算架构与 AI 性能上实现了重大突破,专为先进推理引擎与 AI 智能体的需求而打造。

该产品的核心设计基于 MGX 机架架构,目前已有 50 余家 MGX 系统及组件合作伙伴计划为其提供支持。NVIDIA 计划将升级后的机架设计与计算托盘创新技术作为开放标准,提交至 OCP 联盟。

其计算托盘与机架的标准化设计,允许合作伙伴以模块化方式自由组合搭配,从而更快地实现架构规模化扩展。Vera Rubin NVL144 机架设计具备两大亮点:一是支持 45°C 高效液冷,二是配备新型液冷汇流排以提升性能,同时内置 20 倍容量的储能系统,确保电力供应稳定。

MGX 架构在计算托盘与机架设计上的升级,不仅提升了 AI 工厂的性能,还简化了组装流程,助力千兆瓦级 AI 基础设施快速落地。

作为多代硬件产品的核心贡献者,NVIDIA 长期参与 OCP 标准制定,例如 NVIDIA GB200 NVL72 系统机电设计的关键部分便源于其技术输入。同一 MGX 机架尺寸不仅可支持 GB300 NVL72,未来还将兼容 Vera Rubin NVL144、Vera Rubin NVL144 CPX 与 Vera Rubin CPX,兼顾高性能与快速部署需求。

布局未来:英伟达Kyber机架服务器代际升级

OCP 生态系统也在为 NVIDIA Kyber 做准备 —— 该产品在 800 伏直流供电、液冷技术与机械设计上实现了多重创新。

这些创新将为机架服务器代际升级奠定基础,推动 NVIDIA Kyber(作为 NVIDIA Oberon 的继任产品)于 2027 年实现规模化应用,届时每个 Kyber 机架将搭载高密度平台,容纳 576 块 NVIDIA Rubin Ultra GPU。

应对高功率配电挑战的最有效方式是提升电压。从传统的 415 伏或 480 伏交流三相系统迁移至 800 伏直流架构,可带来多方面优势:机架服务器合作伙伴可将机架内组件从 54 伏直流升级至 800 伏直流,以获得更优性能;同时,直流基础设施提供商、电力系统与制冷合作伙伴及芯片制造商已形成生态联盟,共同遵循 MGX 机架服务器参考架构的开放标准,并出席了本次峰会。

NVIDIA Kyber 的设计目标是提升机架 GPU 密度、扩大网络规模,并最大化大规模 AI 基础设施的性能。通过将计算刀片垂直排列(类似书架上的书籍),Kyber 每个机箱可容纳多达 18 个计算刀片;同时,定制化设计的 NVIDIA NVLink 交换刀片通过无电缆中板集成在机箱后部,实现无缝的规模化网络扩展。

在 800 伏直流系统下,相同规格的铜缆可传输超过 150% 的电力,无需再使用重达 200 公斤的铜汇流排为单个机架供电。

未来几年,Kyber 将成为超大规模 AI 数据中心的核心组件,为最先进的生成式 AI 工作负载提供卓越的性能、效率与可靠性。借助 NVIDIA Kyber 机架,客户可减少数吨铜材的使用量,从而节省数百万美元成本。

NVIDIA NVLink Fusion生态持续扩张

除硬件外,NVIDIA NVLink Fusion技术的应用也在加速推进。该技术能帮助企业将半定制芯片无缝集成到高度优化且广泛部署的数据中心架构中,既降低了复杂度,又缩短了产品上市时间。

$英特尔 (INTC.US)$ 与SamsungFoundry(三星晶圆代工)已加入NVLink Fusion生态系统——该生态此前已涵盖定制芯片设计商、CPU及IP合作伙伴。生态的扩张将助力AI工厂快速规模化,以应对模型训练与智能体AI推理等高强度工作负载。

作为英伟达与Intel近期宣布的合作内容之一,Intel将开发可通过NV Link Fusion集成至英伟达基础设施平台的x86CPU。

SamsungFoundry与英伟达达成合作,旨在满足市场对定制CPU与定制XPU日益增长的需求,为定制芯片提供从设计到制造的全流程支持。

开放生态协同:推动下一代AI工厂规模化发展

超过20家英伟达合作伙伴正通过开放标准研发机架服务器,为未来千兆瓦级AI工厂的落地提供支撑,具体合作企业涵盖以下领域:

芯片提供商: AOS、EPC、MPS、onsemi、Renesas、Richtek、ROHM、$亚德诺 (ADI.US)$$英飞凌科技(ADR) (IFNNY.US)$$英诺赛科 (02577.HK)$$纳微半导体 (NVTS.US)$$帕沃英蒂格盛 (POWI.US)$$意法半导体 (STM.US)$$德州仪器 (TXN.US)$

电力系统组件提供商:BizLink、Delta、LeadWealth、LITEON、$伟创力 (FLEX.US)$$GE Vernova (GEV.US)$$麦格米特 (002851.SZ)$

数据中心电力系统提供商:ABB、MitsubishiElectric、SchneiderElectric(施耐德电气)、HeronPower、HitachiEnergy、$伊顿 (ETN.US)$$GE Vernova (GEV.US)$$西门子(ADR) (SIEGY.US)$$Vertiv Holdings (VRT.US)$

AI持仓军师!一键洞悉持仓,机会风险全掌握

编辑/joryn

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。