简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

英伟达官宣:将恢复 H20 在中国的销售,并宣布推出面向中国市场的全新且完全兼容的 GPU

2025-07-16 08:29

(来源:电子创新网)

本月,NVIDIA 创始人兼首席执行官黄仁勋在美国和中国推广 AI,强调了 AI 将为全球商业和社会带来的诸多益处。

在美国华盛顿,黄仁勋会见了美国总统特朗普和政策制定者们,重申了 NVIDIA 在支持政府创造就业机会、加强美国 AI 基础设施和本土制造业,以及保持美国在 AI 领域领先地位等方面所做出的努力。

在中国,黄仁勋与政府和业界官员会面,探讨 AI 将如何提高生产力和扩大机遇。此次会谈强调了世界各地的研究人员如何推进安全可靠的 AI,进而造福全人类。

黄仁勋还向客户分享了最新消息,NVIDIA 正在提交重新销售 NVIDIA H20 GPU 的申请。美国政府已向 NVIDIA 保证将授予许可证,并且 NVIDIA 希望尽快启动交付。最后,黄仁勋宣布推出一款全新且完全兼容的 NVIDIA RTX PRO GPU,该产品“是为智能工厂和物流打造数字孪生 AI 的理想选择”。

黄仁勋在访问期间指出,世界已经到达一个拐点—— AI 已经成为一种基础资源,就像能源、水和互联网一样。黄仁勋强调,NVIDIA 致力于支持开源研究、基础模型和应用开发,从而实现 AI 的普及,并将为拉丁美洲、欧洲、亚洲以及所有其他地区的新兴经济体提供支持。

“通用、开源的研究和基础模型是 AI 创新的支柱,”黄仁勋在华盛顿接受记者采访时表示。“我们相信,每种民用模型都能够在美国的技术堆栈上实现理想运行,这将帮助世界各国选择我们的解决方案。”

英伟达H20是英伟达专为中国市场设计的一款GPU,它基于Hopper架构继承了Hopper架构的多项创新技术,尽管经过裁剪,但依然保留了核心架构的先进性,能够为AI和高性能计算(HPC)领域提供支持。

为了满足特定市场的法规要求,H20在算力等方面进行了裁剪,例如其峰值算力只有H200峰值算力的约15%,但依然在显存配置、卡间互联带宽等方面保持了一定的优势。

H20配备了96GB的HBM3显存,显存带宽高达4TB/s。相比H200的80GB HBM3显存和3.35TB/s带宽,H20在显存容量和带宽上有显著提升,这使得它在处理大规模数据和复杂计算任务时能够更高效地加载和传输数据,尤其适合大模型推理。

H20的FP8算力为296 TFLOPS,FP16算力为148 TFLOPS,虽然在整体算力上不如H200,但在特定的低精度计算场景中,如FP8混合精度训练,依然能够提供有竞争力的性能。

H20保留了900GB/s的卡间高速互联带宽,支持NVLink 4.0和NVSwitch 3.0,这使得它在构建大规模GPU集群时能够实现高效的多卡协同工作,集群线性加速比接近于1,非常适合大模型训练。

H20配置了60MB的L2缓存,相比H200的50MB L2缓存有所增加,更大的L2缓存有助于提高数据访问效率,减少显存访问延迟,从而提升整体性能。H20的热设计功耗为400W,相比H100的700W功耗更低,这使得它在能效比方面更具优势,能够在有限的电力供应下提供更高的计算性能。

H20凭借其高卡间互联带宽和显存配置,能够组建大规模集群,适合进行大模型的训练任务,尤其是FP8混合精度训练。在集群规模较大时,H20的训练吞吐量能够达到较高水平,能够满足企业级AI训练的需求。

H20的高显存容量和带宽使其在大模型推理方面表现出色,能够直接加载全量参数,避免数据分片导致的延迟,推理性能比H800高出20%,是性价比更高的选择,适合企业部署已训练好的大模型,如智能客服、图像识别等场景。

H20在AI推理和轻量级训练方面都能提供较好的性能,适合需要在两者之间平衡的企业和研究机构,例如小型实验室可以使用多卡H20集群进行千亿参数模型训练。

H20主要面向中国市场,旨在满足受到出口管制影响但仍希望使用英伟达技术的企业,通过调整产品规格,英伟达能够在遵守法规的同时继续保持与中国市场的联系。H20在定价上采取了相对保守的策略,价格区间大致在8.6万到11万人民币之间,略低于华为昇腾910B的价格,具有一定的性价比优势,对于预算有限的企业来说更具吸引力。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。