简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

报告丨深度剖析HBM千亿蓝海,AI算力激战下供需新格局

2025-09-07 20:30

前言

HBM主要面向AI服务器领域应用,其下游客户主要为GPU厂商和ASIC厂商,在高端AI服务器领域,GPU搭载HBM芯片已经成为主流配置,广泛应用于高性能计算、人工智能等场景。

作者 | 方文三

图片来源 |网 络 

Trendforce数据,2024年整体HBM消耗量达6.47B Gb、年增237.2%,其中NVIDIA、AMD的GPU分别占消耗量的62%、9%,其他业者(主要为CSP(云服务提供商)的ASIC所需)占29%,分产品看HBM2e、HBM3、HBM3e贡献的消耗量成三足鼎立,尤以HBM3e 8hi 及HBM2e 8hi最多。

2025年预估整体HBM消耗量将达16.97B Gb、年增162.2%,较上季预估的16.40B Gb小幅上修,因NVIDIA及AWS的AI芯片出货预估上修,其中NVIDIA、AMD、Google、AWS、其他业者分别占消耗量的70%、7%、10%、8%、5%,分产品而言HBM3e为消耗量大宗,尤以HBM3e 12hi最多。

定制AI芯片需求的激增正在重塑竞争格局,预计26年以Google TPU为代表的ASIC HBM位元需求量将大幅增长,测算同比增速或有望超50%。专用ASIC(专为运行特定AI模型而设计)已被证明比Nvidia或AMD日益昂贵的GPU更具成本效益和能效,包括亚马逊、谷歌和Meta在内的科技巨头纷纷加速自研专用ASIC。

HBM对于处理AI工作负载中的高速数据至关重要,随着ASIC的普及,对HBM的需求也日益增长:据2025年6月美光业绩发布会上提到,“ASIC平台”公司与英伟达和AMD并列为其HBM大批量出货的四大客户。

亚马逊、谷歌等企业自研ASIC平台正成为HBM采购新主力。随着全球科技企业掀起ASIC自研热潮,考虑到北美四大CSP(云服务提供商)均有ASIC规划且25/26年预期资本开支合计分别同比+52%/+19%,预计26年以Google TPU为代表的ASIC HBM位元需求量将大幅增长,测算同比增速或有望超50%。

国内HBM产业处于起步阶段,与国际巨头相比仍有差距,但部分企业(如长鑫存储等)已取得一定进展。

长鑫存储:据韩媒Financial News披露,长鑫存储计划于2025年底交付HBM3样品,2026年全面量产,并剑指2027年攻克HBM3E技术。

武汉新芯:发布《高带宽存储芯粒先进封装技术研发和产线建设》招标项目,将利用三维集成多晶圆堆叠技术,打造更高容量、更大带宽、更小功耗和更高生产效率的国产高带宽存储器(HBM)产品

以下是《深度剖析HBM千亿蓝海,AI算力激战下供需新格局》报告部分内容:

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。