熱門資訊> 正文
2024-01-11 09:49
2011年9月,英特爾開發者論壇(IDF)的最后一天,英特爾首席技術官賈斯汀-拉特納(Justin Rattner)在長達一小時的演講中,抽出了大約一分鍾的時間介紹了一項革命性的技術——HMC(Hybrid Memory Cube,混合內存立方體)。
這項技術由美光和英特爾共同合作開發,雖然被一筆帶過,但它的重要性,其實並不比處理器架構迭代要差多少,因為這是內存產業又一次的革命,有望徹底解決過往DDR3所面臨的帶寬問題。
實際上,早在IDF開始前的8月,美光研究員兼首席技術專家Thomas Pawlowski就在Hot Chips 上詳細介紹了HMC,當時雖然沒有透露與英特爾的合作,但他表示,HMC是一種三維集成電路創新,它超越了三星等公司展示的處理器-內存芯片堆疊技術,是一種全新的內存-處理器接口架構。
對於美光來説,HMC就是反殺三星海力士兩大韓廠的最有力武器。
內存革命
在介紹HMC的時候,Pawlowski 對當時DRAM標準的落后提出了質疑,他認為,出於繼續增加帶寬並降低功耗和延迟以滿足多核處理的需求,對內存的直接控制必須讓位於某種形式的內存抽象,DRAM廠商總是需要一個行業標準機構(例如JEDEC)就用於指定 DRAM 的約 80 個參數達成一致,從而產生「*公分母」解決方案。
他的言外之意就是,美光不打算繼續一起慢吞吞地坐下來協商了,既然內存帶寬吃緊,那就開發一種全新的高帶寬標準,拋開JEDEC那堆框框架架的束縛,自己另立一個山頭,而盟主呢,自然就是美光了。
在Pawlowski所公佈的全新 HMC 標準中,從處理器到存儲器的通信是通過高速 SERDES 數據鏈路進行的,該鏈路會連接到 DRAM 堆棧底部的本地邏輯控制器芯片,IDF 上所展示的原型里,4 個 DRAM 通過硅通孔(TSV)連接到邏輯芯片,還描述了多達 8 個 DRAM 的堆疊,值得一提的是,原型里的處理器沒有集成到堆棧中,從而避免了芯片尺寸不匹配和散熱問題。
HMC本質上其實是一個完整的 DRAM 模塊,可以安裝在多芯片模塊 (MCM) 或 2.5D 無源插接器上,從而更加貼近 CPU,除此之外,美光還介紹了一個"遠存儲器"的配置,在這以配置中,一部分 HMC 連接到主機,而另一部分 HMC 則通過串行鏈接連接到其他 HMC,以此來形成存儲器立方體網絡。
以今天的目光來看,HMC不可謂不先進,而Pawloski也頗感自豪,他表示HMC無需使用複雜的內存調度程序,只需使用一個薄仲裁器即可形成淺隊列,HMC從架構上就消除了複雜的標準要求,時序約束不再需要標準化,只有高速 SERDES 接口和外形尺寸才需要標準化,而這部分規範完全可以通過定製邏輯 IC 進行調整以適應應用,大容量 DRAM 芯片在眾多應用中都是相同的。
在許多人擔心的延迟問題上,Pawlowski也表示,雖然HMC的串行鏈路會略微增加系統延迟,但整體的延迟反而是顯著降低的,尤其是它的DRAM 周期時間 (tRC) 在設計上較低,較低的隊列延迟和較高的存儲體可用性還進一步縮短了系統延迟。
他同時也展示了*代 HMC 原型的具體數據,美光同英特爾合作,通過將 1Gb 50nm DRAM 陣列與 90nm 原型邏輯芯片相結合構建了*代 27mm x 27mm HMC 原型,其在每個立方體上使用 4 個 40 GBps(每秒十億字節)鏈路,每個立方體的總吞吐量為 160 GBps,DRAM 立方體的總容量為 512MB,由此產生的性能比下一代 DDR4 顯着提高了約 3 倍的能效(以 pj/bit 為單位)。
HMC解決了傳統DRAM的帶寬問題,一時之間成爲了大家的新寵兒,但實質上是集不斷發展的硅通孔(TSV)技術於大成,並不能全然歸功於美光和英特爾。
什麼是TSV呢?TSV全稱為Through Silicon Via,是一種新型三維堆疊封裝技術,主要是將多顆芯片(或者晶圓)垂直堆疊在一起,然后在內部打孔、導通並填充金屬,實現多層芯片之間的電連接。相比於傳統的引線連接多芯片封裝方式,TSV能夠大大減少半導體設計中的引線使用量,降低工藝複雜度,從而提升速度、降低功耗、縮小體積。
早在1999年,日本超尖端電子技術開發機構(ASET)就開始資助採用TSV技術開發的3D IC芯片項目「高密度電子系統集成技術研發」,也是最早研究3D集成電路的機構之一,之后的2004年,日本的爾必達也開始自己研發TSV,並於2006年開發出採用TSV技術的堆棧8顆128Mb的DRAM架構。
閃存行業先一步實現了3D堆疊的商業化,東芝在2007 年 4 月推出了具有 8 個堆疊裸片的 NAND 閃存芯片,而海力士則是在同年 9 月推出了具有 24 個堆疊裸片的 NAND 閃存芯片。
而內存行業相對稍晚一點,爾必達在2009年9月推出了*款採用TSV的DRAM芯片,其使用8顆1GB DDR3 SDRAM堆疊封裝而來,2011年3月,SK海力士推出了使用 TSV 技術的 16 GB DDR3 內存(40 nm級別),同年9 月,三星推出了基於 TSV 的 3D 堆疊 32 GB DDR3(30 nm級別)。
集合了最新TSV技術的HMC,不僅榮獲了2011年The Linley Group(《微處理器報告》雜誌出版商)所頒發的*新技術獎,還引發了一眾科技公司的興趣,包括三星、Open-Silicon、ARM、惠普、微軟、Altera和賽靈思在內的多家公司與美光組成了混合內存立方聯盟 (HMCC),美光開始磨拳霍霍,準備開始一場更加徹底的內存技術革命。
JEDEC的反擊
前面提到了美光技術專家Pawlowski對於舊內存標準的抨擊,尤其是JEDEC機構,似乎成了一個十惡不赦的壞蛋,彷彿是因為它的存在,內存技術才迟迟得不到改進。
那麼JEDEC又是何方神聖呢?
JEDEC固態技術協會(Solid State Technology Association)是固態及半導體工業界的一個標準化組織,最早歷史可以追溯到1958年,由電子工業聯盟(EIA)和美國電氣製造商協會(NEMA)聯合成立的聯合電子設備工程委員會(Joint Electron Device Engineering Council,JEDEC),其主要職責就是制定半導體的統一標準,而在1999年后,JEDEC獨立成為行業協會,確立了現在的名字並延續至今。
作為一個行業協會,JEDEC 制定了 DRAM 組件的封裝標準,並在 20 世紀 80 年代末制定了內存模塊的封裝標準。「 JC-42及其小組委員會制定的標準是我們能夠如此輕松地升級 PC 內存的原因,」自 20 世紀 70 年代以來一直擔任 JEDEC 志願者的 Mark Bird 説道,「我們對各個組件配置、SIMM、它們所在的插槽以及每一個設備的功能進行了標準化。」
雖然説做DRAM的廠商,肯定離不開JEDEC所制定的標準,但JEDEC本質上並不具備強制性,其*大原則就是開放性與自願性標準,所有標準都是開放性、自願性的,不會偏袒某一個國家與地區而歧視其他國家或地區,擁有近300家會員公司的它還奉行着一家公司一票與三分之二多數制的制度,從而降低了標準制定程序被任何一家或一批公司所把控的風險。
不管是美光也好,三星海力士也罷,它們並沒有能力去干涉JEDEC標準的制定,即使DRAM廠商早已屈指可數,但標準的話語權並不由三巨頭所掌握,只有大家真正認可,纔會最終被推行為正式標準。
這時候問題來了,行業還在JEDEC所制定的標準下前行,美光卻要單獨跳出來自己干,還組建了屬於自己的聯盟,這聽起來有點像蘋果纔會做的事,如同火線接口、早期雷電接口和Lighting接口等,東西是好東西,但是獨此一家別無分號。
要是美光這HMC技術足夠先進也就罷了,*JEDEC四五年,也能像蘋果一樣賺筆小錢,也能和韓國廠商分庭抗禮了,只可惜這技術只*了一兩年左右,甚至可能還沒有這麼久。
在美光公佈HMC的2011年,JEDEC就公佈了關於Wide IO 的 JESD229 標準,作為一項3D IC 存儲器接口標準,其正是爲了解決DRAM帶寬而來,基本概念是使用大量引腳,每個引腳的速度相對較慢,但功率較低。
2012年1月,該標準正式通過,其中規定了 4 個 128 位通道,通過單數據速率技術連接到以 200MHz 頻率運行的 DRAM,總帶寬為 100Gb/S,雖然還是不能與HMC的帶寬相媲美,但也從側面證明了JEDEC的標準並非一直原地踏步和一無是處。
當然,如果只有Wide IO也就算了,畢竟HMC的理念足夠先進,雖然價格也很昂貴,但是總會有一部分高帶寬需求的產品來買單,前景還是挺光明的。
但到了2013年,又殺出了一個程咬金——AMD和海力士宣佈了它們共同研發的HBM,其使用了 128 位寬通道,最多可堆疊 8 個通道,形成 1024 位接口,總帶寬在 128GB/s 至 256GB/s 之間,DRAM 芯片堆疊數為 4 至 8 個,且每個內存控制器都是獨立計時和控制的。
就成本和帶寬而言,HBM 是一個看似中庸的選擇,既不如Wide I/O 便宜,帶寬也比不上HMC,但中庸的HBM卻通過GPU確定了自己的地位,AMD和英偉達先后都選擇了HBM來作為自家顯卡的內存。
而給了美光HMC致命一擊的是,HBM剛推出沒多久,就被定爲了JESD235的行業標準,一個是行業內主要科技公司都在內的大組織,一個是美光自己拉起來的小圈子,比賽還沒正式開始,似乎就已經分出了勝負。
HMC的末路
2013年4月,HMC 1.0規範正式推出,根據該規範,HMC 使用 16 通道或 8 通道(半尺寸)全雙工差分串行鏈路,每個通道有 10、12.5 或 15 Gbit/s串行解串器,每個 HMC 封裝被命名為一個cube,它們可以通過cube與cube之間的鏈接以及一些cube將其鏈接用作直通鏈接,組成一個最多 8 個cube的網絡。
當然,在HMC 1.0發佈時,美光依舊是信心滿滿,美光 DRAM 營銷副總裁 Robert Feurle 表示:「這一里程碑標誌着內存牆的拆除。」 「該行業協議將有助於推動 HMC 技術的最快採用,我們相信這將徹底改進計算系統,並最終改進消費者應用程序。」
而在2014年1月舉行的「DesignCon 2014」上,美光首席技術專家Pawlowski表示JEDEC並沒有在 DDR4 之后做出任何新的努力,「HMC需要的只是一個SerDes(串行器/解串器)接口,其具有簡單指令集,不需要所有細節,未來的趨勢是HMC取代DDR成為DRAM的新標準。」他説到。
事實真的和美光説的一樣嗎?
當然不是,HMC看似強大的帶寬,是建立在昂貴成本之上的,從2013年*版規範開始算起,真正採用了HMC技術的產品,也只有天文學項目The Square Kilometer Array (SKA) 、富士通的超級計算機 PRIMEHPC FX 100、Juniper的高性能網絡路由器和數據中心交換機以及英特爾的 Xeon Phi 協處理器。
看到英特爾也別太興奮,據美光公司稱,雖然Xeon Phi 協處理器的內存解決方案採用與 HMC 相同的技術,但它專門針對集成到英特爾的 Knight's Landing 平臺中進行了優化,沒有標準化計劃,也無法提供給其他客户,什麼意思呢?就是英特爾沒完全遵循HMC,自己另外搞了一套標準。
而且,別說普通消費者了,連英偉達和AMD的專業加速卡都與HMC無緣,HBM已經足夠昂貴了,HMC比起它還要再貴一些,美光雖然沒有公佈過具體的費用,但我們相信,這個價格一定會是大部分廠商所不能承受之重,內存帶寬重要是不假,但過於昂貴的成本,只會勸退客户。
值得一提的是,三星和海力士雖然也一度加入過HMCC聯盟中,但它們並不是主要推動者,甚至沒有大規模量產過HMC產品,2016年之后,兩家都專注於HBM了,除了幾個鐵哥們願意支持一下美光,HMCC的成員更多的是重在參與。
時間來到2018年,HMC早就沒有了2011年時的風光,用門可羅雀來形容也不過分,人工智能在這一年開始興起,高帶寬成爲了內存行業的重心,但背后的市場幾乎都被HBM招徠走了,主推該標準的海力士與三星成了大贏家。
Objective Analysis 首席分析師吉姆·漢迪 (Jim Handy) 在2018年1月接受媒體採訪時對美光發出了警告:「英特爾未來也會從HMC變體轉向HBM,考慮到二者間沒有太大區別,如果美光必須轉型,損失也不會太大。」
好在美光沒有執迷不悟,在2018年8月宣佈正式放棄HMC,轉而追求具有競爭性的高性能存儲技術,也就是HBM,但大家都準備搞HBM2E了,美光此時再入場,不論是吃肉還是喝湯都輪不到它,只能慢慢追趕。
2020年3月,美光的HBM2也就是第二代HBM才姍姍來迟,其最新量產的HBM也止步於HBM2E,明顯落后於兩家韓廠,而市場也忠實反饋了這一差距,根據 TrendForce 的最新數據,SK 海力士佔據全球 HBM 市場 50% 的份額,位居*;三星緊隨其后,佔據 40% 的份額;而美光位居第三,僅佔據 10% 的份額。
不過有意思的是,美光似乎對HMC並未完全死心。
2020年3月,美光公司高級計算解決方案副總裁 Steve Pawlowski 表示,美光是HMC技術最早和最有力的支持者之一,如今的重點是該架構如何能夠滿足特定用例(包括人工智能 (AI))的高帶寬內存需求,事實上在 HMC 最初構想時,人工智能 (AI) 並不存在,「我們怎樣才能在低功耗、高帶寬方面獲得*的性價比,同時能夠為我們的客户提供更具成本效益的封裝解決方案?」他説到。
Pawlowski 還表示,美光繼續通過「探路計劃」探索 HMC 的潛力,而不是遵循最初的規格更新計劃,從性能角度來看,HMC 是一個出色的解決方案,但客户也在尋求更大的容量,新興的人工智能工作負載更注重帶寬,因此這正是 HMC 架構的潛力所在。
「HMC 似乎仍有生命力,它的架構可能適用於最初構想時並不存在的應用,」Pawlowski 説,「HMC 是*於時代的技術的一個極好例子,它需要建立一個生態系統才能被廣泛採用,我的直覺是,HMC 風格的架構就屬於這一陣營。"
遙遙落后的美光
如今是2024年年初,HBM已經火爆了一整年,SK海力士、三星和美光無不以下一代HBM3E乃至HBM4為目標,努力保證自家的技術*,尤其是美光,爲了改善自己在HBM市場中的被動地位,它選擇了直接跳過第四代HBM即HBM3,直接升級到了第五代。
2023年9月,美光宣佈推出HBM3 Gen2(即HBM3E),后續表示計劃於 2024 年初開始大批量發貨 HBM3 Gen2 內存,同時透露英偉達是主要客户之一,美光總裁兼首席執行官 Sanjay Mehrotra 也在公司財報電話會議里表示:「我們的 HBM3 Gen2 產品系列的推出引起了客户的濃厚興趣和熱情。」
但對於美光來説,技術迎頭趕上只是*步,更重要的是能不能在標準上掌握話語權,2022年1月,JEDEC發佈了最新的HBM3標準,其主要貢獻者就是美光老對手,也是HBM的創造者之一——SK海力士,而現在被普遍認可的HBM3E這一名稱,同樣來源於SK海力士。
成為標準貢獻者有啥好處呢?那就是SK海力士所推出的HBM3E可以大方宣稱自己的向后兼容性,即使在沒有設計或結構修改的情況下,也能將這一產品應用於已經為HBM3準備的設備上,不管是英偉達還是AMD,都可以輕松升級原有的產品,滿足更多客户的需要。
而據Business Korea報道,英偉達已經與SK海力士簽訂HBM3E優先供應協議,用於新一代B100計算卡,雖然美光和三星都向英偉達提供了HBM3E的樣品,完成驗證測試后就會正式簽約,但有業內人士預計,SK海力士仍然會率先取得HBM3E供應合同,並從中獲得*的供應份額。
此前我們談到過,存儲巨頭們一直夢想着一件事情,就是擺脫傳統的半導體周期,過上更為安穩的日子,HMC曾是美光的一個夢想,用新標準取代舊標準,用封閉生態代替開放生態,希望憑藉它來成為DRAM技術*,但它卻陷入到一個怪圈當中:HMC價格更昂貴——客户缺乏意向——成本增加導致價格上漲——流失更多潛在客户。
目前來看,HBM是一個更好的切入口,它在新型DRAM的市場和利潤間取得了一個微妙平衡,而SK海力士就是三巨頭里走得最遠的一家,考慮到未來AI芯片的性能很大程度上受到HBM的放置和封裝方式的影響,SK海力士很有可能成為*個跳出周期的廠商。
美光首席技術專家Pawlowski在2011年的Hot Chip上大力批判了落后的內存標準,但他*不會想到的是,看似先進的HMC最終會被納入JEDEC標準的HBM所擊敗,美光空耗了六七年時間,最終甜美果實卻被韓廠摘走,讓人感慨不已。
參考資料:
Beyond DDR4: The differences between Wide I/O, HBM, and Hybrid Memory Cube——extremetech
HBM Flourishes, But HMC Lives——eetimes
'기술' 타이밍 놓치면 순식간 '몰락'… 설 자리 잃은 '마이크론'——newdaily
【本文由投資界合作伙伴微信公眾號:半導體行業觀察授權發佈,本平臺僅提供信息存儲服務。】如有任何疑問,請聯繫(editor@zero2ipo.com.cn)投資界處理。