繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

面向AI的SSD,徹底火出圈

2026-04-08 19:53

當GPU算力以每季度翻番的速度狂飆,當HBM成為AI服務器的「硬通貨」,一塊被嚴重低估的核心部件——面向AI工作負載優化的SSD,正站在產業矛盾的中心點。而當前市場的主流存儲方案HDD與HBM,各自存在難以突破的發展掣肘,正是這一局面的關鍵成因。

01 HBM、HDD,均不是最優解

先看HBM,隨着GPU算力的爆發式增長,本質上是「數據處理能力」的指數級提升。從單卡到集羣,從百億參數到萬億參數,GPU對數據的「吞吐需求」只會越來越苛刻:不僅要快,還要穩定、無延迟,避免出現「算力空轉」。而這種需求,恰好戳中了現有存儲方案的痛點。其次,HBM成為「硬通貨」,是市場對「高帶寬存儲」的被動選擇。HBM的核心優勢是「近顯存級的帶寬」,能最大程度匹配GPU的高速計算節奏,減少數據搬運的延迟——這也是它能成為AI服務器標配的關鍵。但HBM的成本邏輯與「規模化部署」相悖,過度依賴HBM會直接推高AI服務器的整體成本,讓多數企業望而卻步。

再看另一主流存儲方案HDD。作為長期佔據存儲市場的「容量擔當」,HDD的優勢是低成本、大容量,能滿足數據歸檔、冷存儲等場景的需求。但在AI算力狂飆的當下,HDD的性能短板已成為「致命缺陷」:其機械結構決定了讀寫速度和延迟表現,完全跟不上GPU的算力釋放節奏。AI訓練中,數據需要從存儲介質快速加載到GPU顯存,而HDD的慢響應會導致「數據等待算力」。

由此可見,產業矛盾的核心已經非常清晰:GPU的「無限算力需求」與現有存儲方案的「有限適配能力」形成了尖鋭對立。HBM能解決「快」的問題,但解決不了「多」和「省」;HDD能解決「多」和「省」的問題,但解決不了「快」;而AI產業的持續發展,恰恰需要一種能同時平衡「高速響應、海量容量、合理成本」的存儲方案。

SSD的價值,正在這種矛盾中被凸顯出來。

02 AI場景SSD憑什麼「火」

那麼,面向AI的SSD需要解決哪些問題?

業內人士向半導體產業縱橫表示,面向AI的SSD是為大模型訓練/推理量身定製的「高性能+高併發+低延迟+高耐久+大容量」的專用存儲,而大容量SSD只是「容量大」的通用存儲——容量只是SSD的必要條件,絕非充分條件。以下是該類SSD的一些核心特點:

打破CPU中轉瓶頸,讓高端GPU算力不閒置。GPU的核心價值在於算力輸出,但這份輸出能否落地,始終受限於數據傳輸與存儲的協同能力。傳統架構中GPU取數需經「SSD→CPU→內存→GPU」多環節跳轉,CPU帶寬瓶頸成為產業痛點。而面向AI場景的SSD的核心突破,正是在半導體架構層面實現「直連協同」,通過接口技術,讓GPU跳過CPU,直接與SSD建立數據通道。這一改變絕非簡單提速——數據搬運時間大幅縮短,GPU不再因等待數據「空轉」,徹底破解高端GPU算力閒置的資源浪費難題,讓核心芯片的性能優勢真正落地。

打破GPU顯存高端壁壘。如今萬億參數模型的訓練與推理,需要TB級顯存支撐,若單純依靠HBM顯存擴容,不僅會讓GPU成本翻倍,還會受限於半導體制造工藝,讓多數企業難以承擔高端GPU集羣的投入。面向AI應用的SSD被設計為介於HBM顯存與傳統存儲之間的「類內存層」,本質是半導體存儲器件與計算器件的協同創新,既能作為GPU的擴展顯存,又能承擔數據緩存功能。該技術並非替代HBM/DRAM,而是將存儲層從內存擴展到SSD,形成「DRAM+HBM+SSD」的分級存儲體系,優化整體效率。

內置DSP/ASIC,支持近存計算。GPU既要承擔核心矩陣運算這類高端任務,還要處理數據預處理、優化器狀態更新等簡單計算,導致寶貴的算力被浪費。而爲了AI場景優化SSD內置DSP/ASIC計算單元,支持近存計算技術,可將這些簡單計算任務從GPU卸載到SSD本地執行,實現半導體器件的「分工優化」。這種協同模式,讓GPU徹底擺脫冗余計算的束縛,專注於核心算力輸出,不僅減少了數據搬運帶來的延迟與損耗,更提升了整個半導體系統的算力密度。

業內人士向半導體產業縱橫表示:爲了AI場景優化的SSD第一次讓存儲本質性融入算力體系,實現數據直接參與AI訓練與推理,完美匹配GPU高頻併發的特點,最終提升性能、降低整體TCO(總擁有成本)。

03 被搶注的SSD,2026年迎來放量

據悉,由於AI服務器推動存儲需求爆發,HDD持續大缺貨,交付期限已延長至2年以上,雲廠商「緊急加單」,採購大容量企業級SSD,部分原廠2026年QLC NAND Flash產能也被提前搶購一空。供應鏈人士透露,各家雲廠商只能排隊等待,由於HDD供應集中,並採取「依訂單生產」模式,缺貨持續加劇,有云廠商與供應商簽定2026年長約,提前鎖定HDD與企業級SSD供貨來源。

因此,面向AI時代的SSD已成為存儲巨頭、GPU龍頭與雲廠商的必爭賽道,全球頭部存儲廠商紛紛入局,並分化出兩條差異化的技術路線。

第一條路線,是與GPU龍頭英偉達深度綁定,針對性開發適配AI/數據中心場景的SSD產品,核心目標是解決GPU受限於HBM容量的行業痛點,旨在應對計算負載從「計算密集型」向「數據密集型」的轉變,通過將更多數據置於計算資源附近,擴大GPU可用顯存空間,進而支持更大數據集的訪問、顯著提升GPU利用率。

在這一技術方向下,鎧俠與SK海力士已相繼公佈合作進展。2026年3月,鎧俠宣佈成功研發全新品類的超高IOPSSSD,這款產品正是基於英偉達「Storage-Next」計劃的需求打造,預計將於2026年末向特定用户提供評估樣品。無獨有偶,SK海力士早在2025年12月便宣佈與英偉達合作研發AI核心SSD,該項目在英偉達內部沿用「StorageNext」代號,在SK海力士內部則被命名為「AI-NP」(AINANDPerformance),隸屬於「AINFamily」產品線。其核心邏輯是通過重構NAND與控制器架構,打破AI運算與存儲間的數據傳輸瓶頸,滿足大規模AI推演對數據吞吐的極致需求。據規劃,SK海力士這款產品將採用PCIeGen6接口,計劃於2026年底推出初期樣品,其IOPS性能可達2500萬次/秒,實現了8-10倍的跨越式提升。

第二條路線,則是聚焦容量提升、性能突破,打造高性能、大容量的SSD產品。以三星、華為、美光為代表的廠商均在此賽道加速佈局。2025年10月,三星明確產品路線圖:256TBPCIe6.0SSD將於2026年正式推出,512TB版本則計劃在2027年落地;同時,兼容CXL3.1與PCIe6.0標準的CMM-D存儲產品也即將面市,性能實現翻倍升級。

華為則在2025年8月搶先發布面向AI時代的高端SSD矩陣,包含高性能系列HUAWEIOceanDiskEX560、SP560,以及大容量系列HUAWEIOceanDiskLC560,其中單盤最高容量達245TB。該系列產品的核心價值在於打破傳統AI存儲器的性能與容量瓶頸,全面提升AI訓練效率與推理體驗。

同期,美光也於2025年8月在愛達荷州博伊西發佈三款基於G9NAND技術的數據中心級SSD,涵蓋旗艦級9650、高密度6600ION及主流7600三大系列。憑藉全球首發的PCIe6.0技術、業界領先的容量密度與超低延迟表現,為AI算力基礎設施提供核心支撐。從落地進度來看,美光9650與7600系列已推出E3.S/E1.S形態樣品,6600ION系列122TB版本已於2025年第四季度量產,245TB高容量版本則計劃在2026年上半年正式上市。

從上述頭部廠商的技術佈局與產品路線圖不難看出,2026年正成為AI用SSD技術落地與商業化應用的關鍵元年。

業內人士向半導體產業縱橫表示,當前AI用SSD已在三大核心AI場景中展現出強勁的實戰價值:

第一個場景,是AI推理系統。無論是ChatGPT這類對話機器人,還是工作中的AI功能,都需要高頻訪問KV緩存來應對百萬級併發請求。SSD的低延迟的高響應速度,讓推理更高效,而超大容量則賦予AI「長久記憶」,避免重複計算,大幅降低成本;

第二個場景,是向量數據庫實時檢索。向量數據庫是AI語義檢索、推薦系統的核心,對吞吐量和響應時間要求極高。該SSD的高併發、低延迟特性,讓實時檢索效率翻倍。

第三個場景,是AI數據一體機。在海量數據訓練場景中,AI數據一體機需要兼顧性能與成本。SSD通過性能優化與TCO平衡,讓數據分層存儲更合理,既保證訓練速度,又降低硬件投入成本,成為企業部署AI訓練平臺的優選方案。

04 面向AI應用的SSD,進入產業狂歡

過去長期把資源優先投向DRAM的三星和SK海力士,如今正積極調整戰略佈局,應對AI服務器需求激增帶來的存儲芯片市場新變化。

三星電子在2024年9月就已啟動280層V9 NAND量產,但當時只在平澤園區部署了初期量產線,月產能僅約15000片晶圓。如今,隨着AI產業推動存儲需求快速上升,三星正在加速擴大V9產能,並將重點放在中國西安的X2產線。據悉,三星電子位於中國西安的NAND晶圓廠近期成功完成工藝製程升級,實現了236層堆疊的第八代V-NAND (V8 NAND)的量產。

本次製程升級始於2024年,旨在改造原有的V6 (128L) NAND,以提升產品性能與生產效率,增強產能競爭力。在量產V8 NAND后,三星西安晶圓廠的下一步瞄準了286層堆疊的V9 NAND,相關生產線將位於X2工廠,計劃在2026年內完成過渡並實現量產。

SK海力士也展現出強勁的擴產勢頭。該公司計劃在今年第二季度啟動321層第9代NAND的轉換投資,目標是在清州M15實現月產約3萬片晶圓的V9產能。與目前約2萬片晶圓的水平相比,這次擴產力度相當大。

鎧俠表示,計劃通過擴大其四日市工廠和北上工廠的生產線,到2029財年將產能較2024財年提高一倍,以滿足AI數據中心對NAND閃存日益增長的需求。此外,鎧俠與閃迪正計劃聯合在美國興建NAND晶圓廠。

技術迭代的核心不僅在於架構與標準,更在於底層存儲介質的優化,鎧俠CEO柳茂知表示,QLCSSD是AI行業最好的選擇。儘管從SLC到MLC,再到TLC,最終到QLC,SSD的性能一直在下降,但隨着技術的演變,2025年QLCSSD的速度已經比2017年的TLCSSD快很多了。如今QLCSSD的順序讀寫速度可達7000MB/s左右,性能十分強大,能夠滿足AI大模型數據存儲和調用的要求。

QLC(Quad-Level Cell)顆粒之所以能成為SSD的主流選擇,正是源於其對AI場景核心訴求的精準匹配。

第一、讀取優化特性:QLC NAND針對讀取密集型工作負載進行了優化,而AI推理服務器主要負責分析和處理大量數據,訪問模式以讀取為主,寫入頻率相對較低。

第二、高密度優勢:QLC NAND具有更高存儲密度,每單位成本低於TLC NAND,使其成為AI服務器、雲計算和大數據分析等應用的理想選擇。

第三、能效提升:Solidigm的研究表明,QLC固態硬盤的能效比TLC固態硬盤高19.5%,比混合TLC固態硬盤和機械硬盤高79.5%,這對大規模部署的AI推理服務器至關重要。

英特爾的研究進一步證實,QLC NAND固態盤會讓PCIe4.0總線的讀取能力達到飽和,而且具有接近TLC的延迟和服務質量(QoS)。正因如此,這種固態盤的響應速度相比機械硬盤高出好幾個數量級。

本文來自微信公眾號「半導體產業縱橫」(ID:ICViews),作者:豐寧,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。