熱門資訊> 正文
2026-03-27 22:32
Micron Technology Inc.等內存股(納斯達克股票代碼:MU)和Sandisk Corp.(納斯達克股票代碼:SDNK)是2026年共識的人工智能交易--對為每個主要超大規模商提供動力的推理構建的最直接的硬件押注。
在過去的六個交易日里,這種貿易一直在以需求模型沒有預見到的方式瓦解。
直接觸發因素是Alphabet Inc.(納斯達克股票代碼:GOOGL)於3月24日星期二宣佈推出TurboQuant,這是一款震驚整個內存行業的人工智能內存壓縮算法。
美光科技的股票在過去六個交易日中每一個交易日都在下跌,跌幅超過20%。這是該股自2025年4月關税衝擊拋售以來最糟糕的多個交易日表現。
同行Sandisk和Western Digital Corp.(納斯達克股票代碼:WDC)也緊隨其后,SNDK僅在周四就下跌了11%。周四在首爾,三星電子下跌近5%,SK Hynix下跌約6%,拖累KOSPI指數走低。日本閃存專家Kioxia在同一交易日下跌約6%。
現在的爭論是,這是買入的下跌還是剛剛永久破滅的看漲論點。
該算法稱為TurboQuant。它由谷歌研究科學家Amir Zandieh和副總裁兼谷歌研究員Vahab Mirrokni開發,將key-Value緩存(高速內存存儲,允許人工智能模型在不重新處理的情況下檢索過去的計算)壓縮到每個值僅3位,低於標準的16位。
根據谷歌的基準測試,這將KV緩存內存需求至少減少六倍,而模型準確性沒有可測量的損失,並使Nvidia Corp.(納斯達克股票代碼:NVDA)的H100圖形處理器的性能提升高達8倍。
預計將於2026年第二季度發佈開源版本。
簡而言之:每個人工智能推理工作負載都針對隨着上下文長度而增長的KV緩存運行。
TurboQuant壓縮該緩存,這意味着相同數量的高帶寬內存可以為更多的同時用户提供服務、處理更長的上下文或運行比以前更大的模型。
然而,這里也存在明顯的技術界限。
TurboQuant沒有觸及人工智能模型培訓的內存要求,這仍然是谷歌、微軟公司(NYSE:MSFT)和Amazon.com Inc等超大規模運營商高帶寬內存採購的最大單一驅動力。(納斯達克股票代碼:AMZN)。
截至目前,該算法也是實驗室結果。它將在四月底的2026年國際學習代表會議(ICLR)上正式提交。它尚未在任何主要人工智能基礎設施堆棧中以生產規模部署。
Wells Fargo TMT分析師Andrew Rocha直接承認了需求的威脅。
羅查周三在一份投資者報告中表示:「TurboQuant直接攻擊了這里的成本曲線。」他補充説,每個人工智能工作負載的內存規格較低,很快引發了行業實際需要多少總容量的問題。
然而,羅查沒有得出悲觀的結論--他指出,需求破壞情景需要廣泛採用,而這種情況尚未發生。
這不會改變該行業的長期需求狀況,」他説。
摩根士丹利反駁了銷售主題。
該銀行的半導體分析師Shawn Kim稱股票反應過度,並認為TurboQuant最終可能會在長期內使存儲器製造商受益--較低的推理成本會降低運行人工智能服務的每代幣成本,這從歷史上看推動了更廣泛的採用,而不是需求壓縮。
該銀行援引傑文斯·帕特里奇的話説:在資源有限的市場中,效率提高往往會增加而不是減少總消費。
歷史先例是鮮明的。JPEG壓縮不會減少相機存儲空間。視頻編解碼器並沒有減少硬盤驅動器需求--而是啟用了4K流媒體,從而提高了硬盤驅動器需求。
DeepSeek R1在2025年1月的效率突破引發了Nvidia和內存股的類似拋售;兩個季度內,超大規模公司的人工智能資本支出承諾創下歷史新高。
事實證明,拋售是一個切入點,而不是周期的轉折點。
美國銀行證券(BofA Securities)半導體分析師維韋克?阿里亞(Vivek Arya)對需求破壞論提出了最直接的反駁。
在周四發佈的一份報告中,他表示,自2024-25年以來,類似的壓縮技術一直在流通-僅Nvidia在過去12個月內就發佈了四種不同的KV緩存效率方法-而不會改變大規模的硬件採購。
他説,更有説服力的證據在於谷歌自己的支出計劃。儘管發佈了TurboQuant,谷歌仍將其CY 26資本支出預期上調至約1,800億美元,同比增長100%,遠高於之前共識的約1,270億美元。
艾莉亞在筆記中表示:「記憶效率提高了6倍,」可能會導致「準確性和/或上下文長度提高6倍,而不是記憶力減少6倍。」
他維持了美光500美元的目標價格,並指出該股目前處於歷史5- 10倍預期市淨率區間的低端。
Quilter Cheviot的技術研究主管Ben Barringer也提供了同樣的框架。巴林格表示,TurboQuant加大了存儲類股的壓力,但該技術是漸進性的,而不是革命性的,不會改變該行業的長期需求前景。
Ortus Advisors的技術分析師安德魯·傑克遜(Andrew Jackson)在一份研究報告中指出,鑑於目前人工智能內存市場的極端供應限制,TurboQuant的開發可能對需求影響不大」。
更廣泛採用TurboQuant的近期受益者是超大規模企業(更便宜的推理成本可以提高基礎設施投資的回報率)以及可以以更小的硬件預算運行更大模型的人工智能初創公司。
值得注意的是,在這種情況下,英偉達並不是失敗者;當內存效率提高時,圖形處理器的必要性並沒有減少,而是每1美元的推理輸出的成本效益更高,可能會加速在以前受到成本限制的市場中的採用。
對於Micron和Sandisk來説,計算要複雜得多。
這兩隻股票在進入2026年定價時都假設人工智能內存需求將隨着模型大小和上下文長度線性擴展--即使完全採用之路還需要數年時間,TurboQuant的假設現在變得複雜。
市場似乎並不是在短期採用情況下定價,而是存在可靠的降低內存強度的軟件途徑。
這是一個不同且更難駁回的假設。
美光最近的拋售已經引人注目。
它是否代表結構性重新定價還是對尚未投入生產的實驗室結果的過度反應,是下一個盈利周期和ICLR 2026年將開始回答的問題。
圖片來源:Shutterstock