热门资讯> 正文
2025-07-10 21:05
Amazon.com(纳斯达克股票代码:AMZN)和亚马逊网络服务(AWS)周三宣布,他们设计了P6 e-GB 200超服务器,以满足生成式人工智能(包括数万亿参数基础模型、推理系统和代理人工智能)的最新进步所推动的飞速增长的计算需求。
AWS设计了定制硬件来冷却人工智能工作负载中使用的下一代Nvidia(NASDAQ:NVDA)图形处理器。
认识到Nvidia最新芯片的高能源需求,AWS决定不再等待,并建造新的液体冷却数据中心。
另请阅读:亚马逊扩大全球数据中心,增加云客户对Nvidia AI芯片的访问
相反,据CNBC周三报道,其工程师开发了行内热交换器(IRHX)--这是一种与现有和新数据中心集成的解决方案,以管理密集图形处理器配置的热量。
这些UltraServer具有多达72个Nvidia Blackwell GPU,所有GPU都使用第五代Nvidia NVLink互连,使GPU能够作为单个统一的计算系统运行。
AWS计算和机器学习服务副总裁Dave Brown解释说,现成的冷却选项无法满足Nvidia GB 200 NVL 72系统的需求,该系统将72个Blackwell GPU打包到单个机架中。传统的空气冷却对于前几代的图形处理器来说已经足够了,但AWS必须进行创新以跟上当今系统不断增加的计算强度的步伐。
AWS现在通过其P6 e实例提供该基础设施,为客户提供训练和部署具有高级热支持的大规模人工智能模型所需的性能。
微软(NASDAQ:MSFT)和CoreWeave(NASDAQ:CRWV)此前曾提供基于Nvidia GB 200 NVL 72架构的计算集群。
今年3月,英特尔(纳斯达克股票代码:INTC)将其SuperFluid冷却技术定位为管理Nvidia高性能GB 300 AI芯片产生的热量的有力竞争者。
据报道,SuperFluid于2023年推出,已通过验证测试,显示其可以处理高达1,500瓦的热负载,超过了Nvidia Blackwell Ultra GB 300芯片预期的1,400瓦消耗。
6月,人工智能服务器公司Super Micro Computer(纳斯达克股票代码:SMCI)将其针对Nvidia Blackwell架构的液体冷却人工智能服务器解决方案扩展到欧洲市场。
该公司为Nvidia HGX B200、GB 200 NVL 72和RTX PRO 6000 Blackwell部署推出了30多种解决方案栈,帮助企业加快人工智能工厂的推出。
Supermicro正在通过新的液体冷却系统扩大其产品组合,其中包括采用DLC-2技术的4U前置I/O HGX B200服务器。这些系统使客户能够运行高密度人工智能工作负载,同时保持热效率。
通过与Nvidia密切合作,Supermicro还准备在今年晚些时候支持下一代Blackwell Ultra芯片,例如GB 300 NVL 72和HGX B300。
价格走势:截至周四最后一次检查,AMZN股价在盘前下跌0.34%,至221.79美元。NVDA上涨0.85%。
阅读下一步:
照片:Shutterstock