繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

HBM之爭,升級

2025-10-17 10:55

本文來自格隆匯專欄:半導體行業觀察

生成式人工智能革命揭示了一個殘酷的現實:如果無法滿足「野獸」的需求,那麼原始計算能力就毫無意義。在擁有數千個 GPU 的龐大 AI 數據中心中,真正的瓶頸並非處理速度,而是內存帶寬。

儘管工程師們幾十年來一直痴迷於 FLOPS,但該行業現在面臨着一條新的鐵律:如果你不能足夠快地移動數據,那麼你價值數萬億美元的人工智能基礎設施就會變成昂貴的紙鎮。

HBM,SK海力士領先


High Bandwidth Memory 4 (HBM4) 即將問世,這是一種 3D 堆疊內存技術,有望實現前所未有的單芯片帶寬。這將決定哪些公司將在 AI 領域佔據主導地位,或從中消失。這不僅僅是又一次漸進式升級;它決定了下一個突破性 AI 模型的訓練時間是幾周還是幾個月,決定了推理的盈利能力還是每次查詢都燒錢。

今年早些時候,JEDEC 最終確定了用於高性能 AI 的 HBM4 內存標準。新版本比前代 HBM3 內存標準提供了更高的單引腳速度和接口寬度,目標是在 2,048 位接口上實現每引腳 8 Gbps 的傳輸速度,每個內存堆棧的帶寬達到 2 TB/s。實際上,這大約是當前 HBM3 芯片帶寬的兩倍,這對於 AI 加速器來説將是一個重大的進步。

另一項改進在於容量的提升。HBM4 支持高達 16 層的堆疊(16 個顯存芯片綁定),每個芯片的密度為 24 Gb 或 32 Gb,每個堆疊最高可達 64 GB。換句話説,單個 HBM4 模塊可以容納的數據量相當於目前高端 GPU 的整個顯存容量。

儘管速度提升,HBM4 的設計仍兼顧了能效。它允許更低的 I/O 電壓和核心電壓,從而提高能效。這些改進正是爲了滿足生成式 AI 的需求。訓練大型語言模型或運行大型推薦系統需要不斷在 GPU 之間移動 TB 級的數據。更快、更大的內存可以減少這一瓶頸,使每個 GPU 能夠更快地處理數據。

然而,開發和製造 HBM4 面臨着更大的挑戰。目前只有三家內存供應商——SK 海力士、美光和三星——擁有批量生產 HBM4 所需的 DRAM 和 3D 堆疊專業知識。它們能否實現量產,將直接影響英偉達、AMD 和博通等公司未來 GPU 和 AI 加速器的 AI 硬件路線圖。

SK海力士無疑是HBM4領域的領跑者。該公司在HBM領域擁有多項領先記錄。2015年,該公司為AMD GPU供應了第一代HBM,並在HBM2、HBM2E和HBM3方面一直領先於主要客户。根據Counterpoint Research的數據,SK海力士在2025年第二季度的市場份額為62%,遠遠領先於其競爭對手。這種優勢源於其與英偉達的緊密聯盟。

早在 JEDEC 正式規範發佈之前,SK 海力士就已開始提供 HBM4 樣品。事實上,該公司於 2025 年 3 月交付了全球首批 12 層 HBM4 樣品,表明其堆疊技術已準備就緒。SK 海力士宣佈已完成 HBM4 設計的開發,並已做好量產準備。

SK海力士HBM開發負責人Joohwan Cho表示:「通過及時提供滿足客户在性能、功率效率和可靠性方面需求的產品,公司將滿足產品上市時間並保持競爭地位。」

到2025年9月,SK海力士確認其HBM4已滿足所有規格要求。其每針運行速度為10 GT/s,比基準的8 GT/s快25%。10 GT/s的速度等級使SK海力士完全符合Nvidia對Blackwell一代GPU的要求。SK海力士暗示其設計可能超越JEDEC規範,可能是爲了給Nvidia提供所需的性能提升空間。

SK 海力士正在使用其成熟的 1b DRAM 工藝(第五代 10nm 節點)來製造 HBM4 DRAM 芯片。該節點比尖端技術略老,但它具有較低的缺陷密度和更高的良率,這在堆疊十幾個芯片時至關重要。對於位於 DRAM 層下方的基礎邏輯芯片,SK 海力士尚未公開披露其節點。然而,有猜測稱其可能採用臺積電 12nm 或 5nm 工藝。

該公司的理念似乎是「先保證可靠性,再提升性能」,這與HBM保守而穩健的領導風格相符。截至2025年底,SK海力士已準備好在客户需要時立即提升HBM4的產量。儘管該公司尚未公佈具體的發貨日期,但所有跡象都表明,在最終認證完成后,將於2026年初開始批量出貨。

Nvidia 的旗艦 GPU 顯然是首選。業內報告顯示,SK 海力士 HBM4 將首先集成到 Rubin GPU 平臺。此外,鑑於 Nvidia 和 SK 海力士之間的密切關係,他們很可能在 2026 年為 Blackwell GPU 提供大部分初始內存模塊。這使得 SK 海力士在率先大規模出貨 HBM4 方面佔據了主導地位。

SK海力士的市場領先地位也轉化爲了今年可觀的財務收益。2025年第二季度,該公司報告稱其77%的銷售額來自HBM及相關AI內存。儘管目前佔據主導地位,但HBM4的供應競爭尚未結束。競爭對手正在奮力追趕。

美光三星,來勢洶洶


在SK海力士遙遙領先之際,三星和美光緊隨其后。

美光在 HBM 領域起步較晚。過去一年,該公司的市場份額超過了三星,達到 21%,而三星僅為 17%。考慮到幾年前美光幾乎沒有 HBM 業務,這是一個重大進展。而這一增長的催化劑是生成式人工智能 (Generic AI) 需求的激增。

美光的成功主要歸功於HBM3E。它與多家客户達成了供應協議,其中包括六家涵蓋GPU和加速器的HBM客户。美光成功成為英偉達AI GPU的供應商。這是因為英偉達歷來從兩家供應商採購內存以實現冗余,而美光與SK海力士一起分得了一杯羹。

預計到2025年末,美光的HBM業務將大幅擴張。該公司在2025年9月的季度報告中稱,HBM業務的營收已接近20億美元。這意味着HBM在很短的時間內就從一個小眾產品發展到佔公司總營收的兩位數比例。美光甚至表示,其2025年全年的HBM產量已全部售罄,2026年的訂單也基本被預訂一空。

乘着這股勢頭,美光科技於2025年6月開始交付HBM4樣品。該技術為主要客户提供了36 GB、12層堆棧的容量,據報道其中一家客户是英偉達。在過去的幾個月里,美光科技進一步改進了芯片。到2025年第四季度,美光科技宣佈其HBM4樣品的運行速度將超過每針11 Gbps,每堆棧吞吐量超過2.8 TB/s。

美光HBM4很可能在2026年投入量產。該公司已獲得2026年價值數十億美元的HBM3E訂單,包括雲計算巨頭和GPU供應商在內的主要買家都指望美光成為其2026年供應鏈的一部分。鑑於英偉達預計將從SK海力士和美光兩家公司採購Blackwell內存,如果SK海力士無法滿足所有需求,或者英偉達需要第二供應商的靈活性,美光將填補這一空白。

至於另一家韓國巨頭三星,也一直忙於 HBM 業務。因為在第四代 HBM 的競爭中,三星發現自己處境特殊,不得不奮起直追。儘管三星擁有強大的製造實力,但在早期的 HBM 領域卻落后了。

三星的困境在 HBM3E 上愈發明顯。SK 海力士和美光為客户量產了 8 層和 12 層 HBM3E,而三星的 12 層 HBM3E 卻難以通過認證。據報道,三星耗時 18 個月,並多次嘗試才達到 Nvidia 對 HBM3E 的質量和性能標準。到 2025 年第三季度,三星終於通過了 Nvidia 的驗證,其第五代 HBM3E 12 層 HBM3E 通過了所有測試。

到目前為止,三星 HBM 僅出現在 AMD 的 MI300 系列加速器中。然而,在獲得 Nvidia 認證后,該公司已同意購買 3 萬至 5 萬單元的12層高HBM3E,用於液冷 AI 服務器。三星 HBM3E 也將於 2025 年中期為 AMD 加速器出貨。

造成這種滯后的關鍵挑戰之一是,三星試圖將尖端的1c DRAM工藝(第六代10納米節點)應用於其12層HBM3E和即將推出的HBM4,但卻遇到了良率問題。截至2025年7月,1c的試運行良率僅為65%,這對於量產來説是一個很大的問題。三星不得不重新校準和修改DRAM設計,改進基片,並增強熱管理。

三星計劃在 2026 年上半年開始量產 HBM4。2025 年第三季度,三星已開始向英偉達 (Nvidia) 交付大量 HBM4 樣品,用於早期認證。此外,該公司還擁有一張戰略王牌,那就是與 AMD(以及 OpenAI)深化的合作伙伴關係。2025 年 10 月,有消息稱AMD 已簽署一項重要協議,將向 OpenAI 供應 Instinct MI450 GPU 系統。據報道,三星是 AMD MI450 加速器 HBM4 的主要供應商。

鹿死誰手?


最終,HBM4 供應的競爭並非零和遊戲。三家供應商都將竭盡全力,為生成式 AI 提供最高性能的內存模塊。真正的贏家將是那些能夠克服技術挑戰、實現規模化交付的企業。

爲了擴大市場,三家公司都取得成功將是理想之選。這將緩解硬性限制,並提升研究人員和企業的AI能力。無論如何,2026年將是這場內存競賽的決定性一年。值得關注的是,哪家供應商最終能率先實現量產,這將揭示誰纔是這輪競賽的真正贏家,以及誰的AI產品計劃可能需要調整,因為他們押注了失敗者。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。