繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

英特爾失手十年,AMD 迎來「復仇周期」

2025-11-16 11:32

在犯錯之后,會出現一個惡性循環;但當你設法把自己從坑里挖出來,不僅不再犯錯,還通過優秀的工程能力、辛勤的工作以及一點運氣趕上並超越競爭對手時,也會出現一個良性循環。

過去十年里,由於(主要是代工業務的失誤)英特爾在數據中心領域表現掙扎,這對AMD來説並非壞事;就像在那之前的十年里,AMD自己一路「跌下樓梯」時,也並沒有傷害到英特爾一樣。由於多個問題,AMD在十年前幾乎被數據中心市場徹底趕盡殺絕,不得不重新贏得CIO們的信任,幾乎像一家創業公司一樣重頭再來——先是依靠CPU,如今又憑藉GPU以及藉助其對賽靈思(Xilinx)、Pensando 和 ZT Systems 的收購而獲得的部分網絡和系統設計能力。

現在,AMD首席執行官蘇姿豐(Lisa Su)以及其核心管理團隊表示:AMD已經準備好乘上AI浪潮,並在傳統企業級計算市場中獲取超過其應得份額的增長。

這正是本周在紐約舉行的面向華爾街的金融分析師日(Financial Analyst Day)上傳達的主要信息。AMD並不經常舉辦這種FAD活動,因此每一次都對幫助外界同步預期、微調預測具有重要意義。第一次FAD是在2009年舉辦,那一年英特爾的Xeon產品線表現極佳,而AMD的Opteron表現不佳。2012年,前任CEO Rory Read 舉辦了一次大型FAD,宣佈公司將弱化其數據中心業務;但到了2015年,蘇姿豐成為CEO,技術長Mark Papermaster發佈了AMD的「Zen」架構以及在數據中心實現復興的目標。2017、2020、2022以及2025年的FAD活動則分別勾勒了這條復興路線上的里程碑。如今可以安全地説:在高性能CPU和GPU方面,AMD已經比其老對手英特爾更可靠;同時在GPU與DPU方面成為Nvidia可信的替代者,並且從明年起,也將成為機架級AI系統的一個可行競爭者。

我們花了幾天時間反覆研究FAD 2025近五小時的演示內容,現在很高興能根據本周AMD高層發表的內容,並結合我們對Nvidia的預期,分享我們自己的模型分析。

接下來是AMD對數據中心可尋址總市場(TAM)的最新界定,以及公司對自身CPU與GPU計算產品在該總體TAM中表現的評估——需要強調的是,這里的TAM指的是銷售到數據中心的芯片本身,而不是由這些芯片構建的系統,也不包括將軟件疊加其上所形成的完整解決方案。AMD銷售芯片並免費提供軟件,因此它統計的內容包括CPU、GPU(含其轉售的HBM內存)、DPU、機架級系統的scale-up網絡,以及scale-out網絡中的DPU。

直到目前為止,蘇姿豐及其團隊提供的TAM和預測僅針對數據中心AI加速器。供您參考,這是過去兩年內所有的預測:

我們在今年6月做過大量「巫術般的分析」,試圖將AI訓練芯片與AI推理芯片區分開來,再進一步推算AI推理與訓練系統的收入規模。以紅色粗體與藍色斜體標出的數字為 The Next Platform 為填補模型空白或進一步限定AMD TAM模型而做出的估算。

而這一次,在FAD 2025上,AMD只討論整個數據中心市場,並向華爾街説明其CPU和GPU業務未來將會如何表現。以下是蘇姿豐公佈的最新數據中心TAM圖表:

「要準確判斷TAM是什麼,總是非常困難。」蘇姿豐在開場白中承認。「當我們最早開始討論AI TAM時,我記得我們從3000億美元開始,后來更新到4000億美元,再到5000億美元。我記得你們中很多人都説過:‘Lisa,這個數字也太高了吧?你為什麼認為這些數字會這麼高?’事實證明,就AI加速的速度而言,我們可能比錯誤更接近正確。而這些判斷來自我們與大量客户的深入討論——瞭解他們如何規劃自己的計算需求。」

因此,這就是AMD以及在很大程度上Nvidia正在追逐的TAM。(Nvidia的TAM更大一些,因為它還銷售數據中心的scale-out和scale-across網絡。但我們暫且忽略這一點。)

「毫無疑問,數據中心是當前最大的增長機會,而AMD在這個市場中的位置非常非常有利。」蘇姿豐繼續説道。「我真正想強調的是,我們的戰略一直非常一致。我認為在科技行業必須如此,因為坦白講,這些產品周期都非常長。這些是我們的戰略支柱:我們從計算技術領先開始,這是一切的基礎。我們極度專注於數據中心領導力,而數據中心領導力涵蓋芯片、軟件以及隨之而來的機架級解決方案。」

在她的演講中,蘇姿豐表示:未來三到五年間,AMD的數據中心AI收入將實現超過80%的複合年增長率(CAGR);在同一期間,公司將有望在服務器CPU市場獲得超過50%的營收份額、在客户端CPU獲得超過40%的營收份額,並在FPGA市場獲得超過70%的營收份額。她還表示,AMD數據中心部門在未來三到五年將實現超過60%的CAGR;而其核心客户端、嵌入式、定製和FPGA業務將在同一期間實現10%的CAGR,從而推動AMD整體營收實現超過35%的CAGR。最后,蘇姿豐表示,AMD預計2025年營收約340億美元,其中約160億美元將來自數據中心部門;我們認為今年其Instinct數據中心GPU將實現約62億美元營收,Epyc服務器CPU約93億美元營收,剩下一小部分來自DPU和FPGA。

在將所有數字塞入「魔法電子表格」之前,我們先來討論一下CAGR。所謂CAGR,就是取一個數據集的兩個端點,然后畫一條直線,並計算這條直線的斜率。這是一個非常粗糙的工具,完全忽略了任何市場自然存在的高峰和低谷。特別是在AI領域,我們認為——蘇姿豐也同意——未來幾年的增長會高於后期年份。我們也認為2026、2027以及2030年將是AI市場整體增長非常好的年份。我們的模型反映了這一點。

因此,不再贅述,這里是AMD模型;而爲了比較,我們也加入了日曆化的Nvidia數據中心銷售額。(注意:Nvidia的財年截至1月,因此需要將N、N-1、N-2三個財年中的1月營收剔除 N 年、從 N-1 中剔除、並將 N-2 的1月加到 N-1 中,以得到當前自然年的營收估算。)請看下方:

一些觀察:在假設AMD數據中心營收實現60% CAGR 的情況下,又要讓AMD總體營收保持在35% CAGR,同時讓其核心業務(PC、嵌入式、FPGA)保持10% CAGR,從數學上似乎很難同時成立。我們的模型嘗試平衡這些因素,同時讓數據中心AI市場的機會在預測期末仍保持超過1000億美元。

讓我們繼續討論CPU業務。在深入表格前,先提一下AMD計算與企業AI總經理 Dan McNamara 對2026年即將發佈、基於Zen 6與Zen 6c內核的「Venice」 Epyc處理器規格的介紹:

根據「線程密度」的説法,我們計算得出的倍數為1.33,從而對應Zen 6版本為172核心,Zen 6c(半緩存版本)為256核心。而Zen 5版本的「Turin」Epyc 9005系列最高為128核心,Zen 5c為192核心。

McNamara展示的另一張有趣圖表來自AI工作負載推動的GPU需求反過來刺激服務器CPU市場的復興:

我們已經說了一段時間:如果把AI系統剔除,一般用途服務器市場實際上處於衰退——而從以上數據可以清楚看到確實如此:2022至2023年間,只有用於AI系統的高端服務器CPU維持了市場的平穩;而2024年一般用途服務器營收下降得更快,卻依然因AI系統CPU銷售而獲得支撐。(我們認為在系統營收層面也是類似趨勢,而且因為每套系統中GPU數量更高且單價更高,影響會被放大。)

今年,由於大量老舊機器需要升級,並通過負載整合提升效率、釋放電力、空間與預算用於AI系統,一般服務器市場(以及其CPU部分)重新回升,AMD預期這一市場將增長到2030年。而AI服務器CPU市場將從2025年約82億美元增至2030年約300億美元——以服務器CPU標準來看,這是極其巨大的增長。

重點是:AI工作負載仍然需要大量串行處理,並且需要快速而昂貴的處理器來完成這些工作。

在GPU方面,AMD 的 MI350 與 MI355X GPU 正在加速量產,但所有目光都集中在明年推出的 MI400 系列——這些GPU將插入AMD與Meta合作打造的「Helios」機架中。同時,有不少人也在關注2027年推出、搭載 MI500 系列的新一代機架。

以下是「Altair」MI450 系列的基礎規格,我們給它命名 Altair,因為AMD拒絕為其GPU正式採用代號:

雖然 FP4 和 FP8 精度下的FLOPS 很重要,但更重要的也許是HBM4內存的容量與帶寬。我們認為,這意味着FP16訓練將獲得所需的內存容量與帶寬,使其效率大幅優於以往的GPU;而在FP8與FP4模式下,也會有足夠的帶寬讓上下文tokens更快被處理、輸出tokens更快生成,相比Nvidia和AMD此前乃至當前GPU都更快。

據我們瞭解,MI400系列共有三種型號,全部採用臺積電2nm(N2)工藝。正如蘇姿豐本周指出,這是全球首批採用該工藝的芯片。MI450 面向 Microsoft 與 Meta 推動的 OAM 八路開放主板;MI450X(上圖)進入 Helios 機架,初始為72 GPU 的配置(類似Nvidia 「Oberon」 中的 NVL72),也將提供64與128 GPU 的版本。MI455X 是高端型號,我們認為其HBM4容量為432GB——明顯高於今年早些時候提到的288GB。

配備 MI455X 的 Helios 機架可提供 1.45 EFLOPS(FP8)與 2.9 EFLOPS(FP4),總計31TB HBM4、以及1.4PB/s 帶寬。其基於以太網的UALink(UALoE)scale-up網絡可為72顆GPU提供260TB/s的帶寬(每顆3.6TB/s),機架外的scale-out網絡帶寬為300GB/s。

以下是AMD將其未來Vera-Rubin 計算引擎(用於Oberon機架)與 Venice-Altair 計算引擎(用於Helios機架)進行對比:

看起來勢均力敵……

MI430X 是 Altair 的另一個型號,目前信息不多,它面向逐漸成為AI中心的國家級HPC中心:

我們強烈認為 MI430 將擁有更高的FP64性能密度(每單位能耗或每美元),但AMD如何實現仍不得而知。今年早些時候,我們與 AMD GPU平臺副總裁、長期領導IBM Power CPU項目的 Brad McCredie 對話時,他曾暗示AMD正在嘗試一些新設計。我們當時提出:是否可以將不同浮點精度拆分到不同計算chiplet中,例如FP64/FP32一個chiplet、FP16一個chiplet、FP8一個chiplet、FP6/FP4一個chiplet,並將向量與Tensor單元也拆成獨立chiplet。他暗示AMD正在做一些類似的事情,但沒有給出細節。

最后是機架級GPU系統的短期路線圖:

隨着「Verano」Zen 7/Zen 7c處理器的推出,AMD也將發佈MI500系列GPU——我們還沒有為其想好代號,以便讓AMD自己先公佈。同時AMD會繼續沿用「Vulcano」 DPU 系列作為Helios機架的組件。

AMD尚未透露太多MI500的信息,但以下是相對性能路線圖:

如果該圖按比例繪製,則MI500系列最高將達到約72 PFLOPS(FP4),比MI455X高約80%,是正在量產的 MI355X 的7.8倍。

企業確實是「購買路線圖,而不是購買單點產品」,但最終仍必須購買某個實際產品才能完成實際任務。買家總是希望等待下一代計算引擎來獲得更高效率,但如果一直等待,工作永遠無法完成。AMD、Nvidia 等廠商當然能依賴這種心理——並順利將其轉化為收入。

只要看看我們上文模型中 AMD 與 Nvidia 的收入數字,就知道這個市場有多豐厚。

參考鏈接

https://www.nextplatform.com/2025/11/14/amd-solid-roadmaps-beget-money-which-beget-better-roadmaps-and-even-more-money/

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。