繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

HBM,三足鼎立

2024-01-28 02:33

韓國記憶體大廠SK海力士擺脫季度虧損,主要靠着DDR5及HBM3倍數成長,隨着輝達(NVIDIA)、超微(AMD)競相推出新的AI芯片,三星及美光也將加入HBM供應陣營,HBM市場料將呈現三足鼎立。

AI GPU市場現由NVIDIA佔據領先地位,但AMD的新一代人工智能和高效能運算(HPC)加速器Instinct MI300X,已正式交貨,AI芯片進入兩強競爭時代。

業界預期,AI芯片需求爆發,將有利於三大廠的HBM收入,並有望帶來數倍增的業績。

產業界人士分析,SK海力士因先進者的市場優勢,為NVIDIA提供HBM3,目前仍保持領先地位,但市場預估,三星於2023年底,獲Nvidia驗證通過后,自2024年第一季,將開始擴大對NVIDIA的HBM3供應。

根據業界掌握目前三大領導廠商HBM進度,SK海力士、三星、美光皆於2023年下半年,進行了Nvidia下一代H200搭載HBM3E的測試,預計將從2024年第二季開始供應。

因此,儘管現階段HBM市場仍由SK海力士獨佔,但以HBM市場處於供不應求情況下,競爭格局將在2024年發生變化,三星、美光將逐步擴大HBM市場佔有率

業者分析,由於HBM在生產上有較高的消耗,將限制整體DRAM供給成長,而AI PC DRAM容量預計是傳統PC的兩倍以上,AI手機需要至少額外4GB DRAM,將進一步推升DRAM需求。

據瞭解,三星和SK海力士於2024年,在晶圓設備資本支出(WFE CAPEX),分別為27兆和5.3兆韓元,年增25%和100%,主要用於HBM產品上,目前記憶體產業先進製程節點產能仍呈現短缺,預期各大廠擴產將集中於DRAM。

這顯示了SK海力士的信心,該公司在三星電子、美光等全球三大存儲半導體公司中,率先在去年第四季度成功扭虧為盈。證券分析師預測,藉助「人工智能熱潮」,該公司明年的營業利潤將超過 15 萬億韓元(112.3 億美元)。據報道,SK海力士管理層認為,從今年開始的人工智能驅動的上升周期將超過2018年的超級繁榮水平。

SK海力士去年第四季度的業績被評價為徹底顛覆市場預期的「驚喜」。與只會減少損失的預測相反,營業利潤達到了 3,460 億韓元(2.59 億美元)。銷售額也達到11.31萬億韓元,比去年同期增長47.4%。這一數字超出了預期的10.47萬億韓元。分析表明,在人工智能新需求和行業削減的推動下,半導體行業的復甦速度快於預期。

在當天的業績發佈會上,SK海力士副總裁兼首席財務官金宇賢表示,「存儲器市場的上升趨勢預計將持續到明年。」 Kim補充道:「預計內存價格上漲的客户從去年第四季度開始增加採購訂單。新的需求主要來自庫存水平較低的 PC 和移動客户。」 他預計,今年上半年DRAM需求側庫存將恢復至正常水平,而NAND下半年也將出現同樣的恢復。

隨着老產品的復甦趨勢變得明顯,SK海力士現在有能力對新的增長引擎進行大膽投資。該公司旨在通過專注於 HBM 和 DDR5 等高附加值產品來確保盈利,以應對不斷增長的需求。值得注意的是,HBM和DDR5表現出色,銷售額較上年分別增長四倍和五倍。

HBM擴大產能的決定就是基於這樣的背景。SK海力士向全球領先的AI半導體公司NVIDIA供應第四代HBM HBM3。

爲了佔據市場領先地位,SK海力士還專注於下一代產品。代表性的例子包括應用於終端AI的高性能移動模塊「LPCAMM2」,以及大容量服務器模塊「MCRDIMM」。

行業預測表明,三星電子將通過大量設備投資顯着擴大其高帶寬內存(HBM)生產能力。這加劇了與SK海力士的行業領先地位競爭,SK海力士將於今年上半年開始量產其第五代HBM3E產品。

截至1月23日,預計SK海力士去年最后一個季度來自HBM的銷售額超過1萬億韓元,這是歷史上的首次。去年HBM市場規模達到40億美元左右,SK海力士以20%的市場份額鞏固了領先地位。

此外,SK海力士計劃於今年上半年開始量產下一代HBM3E,鞏固其在全球半導體元件市場高附加值產品線中的領導地位。今年早些時候,在美國拉斯維加斯舉行的 CES 2024 上,SK 海力士總裁 Kwak No-jung 表達了對該公司業務的信心,並表示:「SK 海力士是 HBM 市場明顯的領導者。」

另一方面,三星電子從去年第四季度開始擴大第四代HBM3供應,目前正進入一個過渡期,相關銷售額開始顯着反映在其業績中。不過,三星電子預計將着手大規模的設備投資,以提升其整體產品生產能力,以加速其追趕。

預計兩家公司之間的關鍵戰場將是 HBM3E。HBM3E預計將安裝在英偉達明年下半年銷售的下一代AI芯片中,三星電子和SK海力士預計將為此展開激烈的供應訂單競爭。

SK海力士自2013年開始與Nvidia合作開發HBM,積累了十年的生產技術,在定價方面也被視為具有競爭優勢。SK海力士於去年8月成功開發了HBM3E,目前正在通過向包括Nvidia在內的主要客户提供樣品進行性能驗證程序。

三星電子仍有扭虧為盈的機會。該公司計劃到今年第四季度將 HBM最大產量提高到每月 150,000 至 170,000 件。

美光科技與英特爾等其他領先的人工智能 (AI) 半導體公司一起,加大了挑戰行業領跑者的力度。12月24日,據半導體行業消息人士透露,全球第三大DRAM製造商美光目前正在對其開發的HBM3E進行主要客户的質量評估。

高帶寬內存(HBM)是人工智能服務器中使用的一種 DRAM,其特點是堆疊多種類型的 DRAM 以增強數據處理能力和速度。目前由三星電子和 SK 海力士主導的全球 HBM 市場預計將從今年的約 2.5 萬億韓元增長到 2028 年的約 8 萬億韓元。

美光科技預計 2023 年市場份額約為 5%,位居第三。該公司對其下一代產品 HBM3E 下了很大的賭注,以縮小與領先者的差距。美光首席執行官 Sanjay Mehrotra 表示:「我們正處於為 Nvidia 下一代 AI 加速器提供 HBM3E 的驗證的最后階段。」

HBM和GPU捆綁在一起的AI加速器市場也面臨着激烈的競爭。人工智能加速器是專門用於大規模數據訓練和推理的半導體,被認為在生成人工智能時代至關重要。

英特爾正在這一領域做出巨大努力。12月14日,英特爾推出了Gaudi3下一代AI加速器原型機,其速度較前代產品提升至4倍,HBM提升1.5倍。英特爾首席執行官帕特·基辛格(Pat Gelsinger)一直公開批評人工智能加速器領域的領導者英偉達,他表示:「隨着數據推理[服務]的重要性不斷增長,英偉達專注於數據訓練的時代也將結束。」

各個AI半導體領域的第三名逆襲是由市場的增長潛力驅動的。據AMD稱,AI加速器市場目前價值300億美元,預計到2027年將擴大到1500億美元。HBM市場預計未來五年每年將以50%的速度增長。

客户想要檢查領先公司的主導地位的願望也刺激了新參與者積極進入市場。例如,微軟等主要人工智能加速器市場參與者正在敦促 AMD 和英特爾等公司開發 Nvidia 的替代品。在 HBM 市場,一位客户已預付款 6 億美元支持美光的新產品開發。

市場領導者正致力於通過新產品擴大領先地位。在HBM市場,三星電子和SK海力士正在開發第六代HBM——HBM4,預計將採用「混合鍵合」技術,在減小尺寸的同時提高容量。Nvidia 正在開發「X100」人工智能加速器,預計將於 2025 年發佈,這將使內存使用量提高到 400 GB。

美光重申計劃於 2024 年初開始大批量發貨 HBM3E 內存,同時還透露 NVIDIA 是其新型 RAM 的主要客户之一。同時,該公司強調其新產品受到了整個行業的極大興趣,這暗示 NVIDIA 可能不是唯一最終使用美光 HBM3E 的客户。

美光公司總裁兼首席執行官 Sanjay Mehrotra 在公司財報電話會議上表示:「我們的 HBM3E 產品系列的推出引起了客户的濃厚興趣和熱情。」

領先於競爭對手三星和 SK 海力士推出 HBM3E(該公司也稱為HBM3 Gen2)對於美光來説是一件大事,美光在 HBM 市場上處於劣勢,市場份額為 10%。該公司顯然對 HBM3E 寄予厚望,因為這可能使其能夠領先於競爭對手(贏得市場份額)提供優質產品(以提高收入和利潤)。

通常情況下,內存製造商往往不會透露其客户的姓名,但這一次美光強調其 HBM3E 是其客户路線圖的一部分,並特別提到 NVIDIA 是其盟友。與此同時,NVIDIA 迄今為止宣佈的唯一支持 HBM3E 的產品是Grace Hopper GH200計算平臺,該平臺配備 H100 計算 GPU 和 Grace CPU。

Mehrotra 表示:「在整個開發過程中,我們一直與客户密切合作,並正在成為他們的人工智能路線圖上緊密結合的合作伙伴。」 「美光 HBM3E 目前已獲得 NVIDIA 計算產品的資格,這將推動 HBM3E 驅動的人工智能解決方案。」

美光的 24 GB HBM3E 模塊基於八個堆疊 24Gbit 內存芯片,採用該公司的 1β (1-beta) 製造工藝製造。這些模塊的數據速率高達 9.2 GT/秒,使每個堆棧的峰值帶寬達到 1.2 TB/s,比現有最快的 HBM3 模塊提高了 44%。與此同時,該公司不會停止其基於 8-Hi 24 Gbit 的 HBM3E 組件。該公司宣佈,繼開始量產 8-Hi 24GB 堆棧后,計劃於 2024 年推出超大容量 36 GB 12-Hi HBM3E 堆棧。

美光首席執行官補充道:「我們預計將於 2024 年初開始 HBM3E 的生產,並在 2024 財年實現可觀的收入。」

美光科技在本周的財報電話會議上表示,該公司正在對 128 GB DDR5 內存模塊進行送樣,這些模塊基於該公司最新的單芯片、非堆疊32 Gb DDR5 內存設備,該公司於今年夏天早些時候宣佈推出該設備,最終將為服務器打開 1 TB 內存模塊的大門。

美光總裁兼首席執行官 Sanjay Mehrotra 表示:「我們通過基於單片芯片的 128 GB 模塊擴展了我們的高容量 D5 DRAM 模塊產品組合,並且我們已開始向客户提供樣品,以幫助支持他們的 AI 應用需求。」 「我們預計該產品將在 2024 年第二季度實現收入。」

美光的 32 Gb DDR5 芯片採用該公司的 1β (1-beta) 製造工藝製造,這是僅依賴深紫外 (DUV) 光刻多重圖案化且不使用極紫外 (EUV) 光刻工具的最后一個生產節點。不過,這就是我們目前對美光 32 Gb DDR5 IC 的瞭解:該公司沒有透露其最大速度檔,但我們可以預期,與在相同電壓下運行的兩個 16 Gb DDR5 IC 相比,功耗會有所下降。數據傳輸率。

美光的新型 32 Gb 內存芯片為創建僅包含 8 個獨立內存芯片的個人電腦標準 32 GB 模塊以及基於 32 個此類 IC 的面向服務器的 128 GB 模塊鋪平了道路。此外,這些芯片使得生產 1 TB 容量的內存模塊成為可能,而這在今天看來是無法實現的。這些 1 TB 模塊目前看來有些過大,但它們有利於人工智能、大數據和服務器數據庫等領域。此類模塊可以使服務器每個插槽支持高達 12 TB 的 DDR5 內存(在 12 通道內存子系統的情況下)。

總體而言,就DDR5內存而言,值得注意的是,該公司預計2024年初DDR5的位產量將超過DDR4,稍稍領先於行業。

「美光在向 D5 的行業轉型中也擁有強大的地位, 」Mehrotra 説。「我們預計美光 D5 銷量將在 2024 年初超越 D4,領先於行業。」風險提示及免責條款市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。