繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

英偉達鐵王坐不穩?ASIC成「心腹大患」,三大軟肋暴露無遺

2025-07-08 20:21

幾天前,英偉達再一次創造了歷史。

7 月 3 日,英偉達市值短暫攀上 3.92 萬億美元,超越了蘋果此前保持的 3.915 萬億美元紀錄,成為有史以來市值最高的上市公司。AI 算力的狂飆猛進,把這家 GPU 廠商推向了前所未有的高點。

尤其是自 2024 年底,性能與能效雙雙躍進的 Blackwell 平臺開始出貨后的銷售表現,打破了外界的疑慮,英偉達創始人兼 CEO 黃仁勛在最新財報電話會議上表示,僅在 2025 年第一季度,這套新平臺就已經貢獻了英偉達數據中心收入的近七成。

但就在英偉達市值衝頂、光環加身之時,來自生態內部的裂縫也在浮現。最典型的例子,正是英偉達的重要客户—— OpenAI。幾乎就在英偉達市值達到高峰的同時,The Information 援引 OpenAI 內部人士稱,OpenAI 正在使用谷歌自主研發的 TPU 芯片來為 ChatGPT 及其其他產品提供算力支持。

TPU 服務器,圖/谷歌 TPU 服務器,圖/谷歌

雖然后續的迴應中 OpenAI 刻意淡化了「轉向」,強調是測試且「暫無大規模採用計劃」。但對於一家曾親手定義 AI 新時代的公司來説,哪怕只是「測試」,也足以引發市場的高度敏感。

與此同時,這也讓谷歌稍早前發佈的第七代 TPU —— Ironwood 再次成為焦點,這是一顆為推理場景量身打造的專用 AI 芯片,不僅在每瓦性能上直指 Blackwell,更在成本與部署靈活性上展現出頗強的吸引力。

更重要的是,真正讓英偉達面對結構性挑戰的,是那些比起「通用」,更強調「效率」的 ASIC 芯片陣營。谷歌、亞馬遜、Meta 等雲巨頭正持續加碼自研加速器,繞開英偉達 GPU 的高成本;而如 Cerebras、Graphcore 等初創企業,則從芯片架構和系統設計層面重新定義「AI 專用計算」,試圖構建一條完全不同於 GPU 的技術路徑。

對於英偉達來説,世界第一的寶座,並不安穩。

進擊的 ASIC,正在成為英偉達的「心腹大患」

俗話説得好,最瞭解一個人的,往往是他的對手。

5 月 19 日,英偉達發佈了全新互聯架構 NVLink Fusion,這套架構被定義為「AI 工程合作平臺」,通過授權 NVLink 芯片間互聯(C2C)和整合交換模塊,使第三方廠商能將自研加速器或 CPU 接入英偉達主導的算力系統。

相比過去 NVLink 的封閉式設計,Fusion 的「半開放」姿態看似包容,但本質依然要求合作方依附在英偉達的生態軌道上,任何定製芯片都必須連接到英偉達的產品,同時也只是選擇性地開放了 900GB/s 的 NVLink-C2C 接口。所以 NVLink Fusion 儘管表面上展現了英偉達的開放姿態,實則更多是一次防禦性出招:

爲了防禦 UALink 聯盟。

圖/ UALink 聯盟 圖/ UALink 聯盟

2024 年 10 月,由 AMD、Intel、谷歌、Meta、微軟、AWS 等聯合發起的 UALink 聯盟就已悄然成型,隨后又加入了蘋果、阿里雲、新思科技等,迅速擴張為一個囊括芯片設計、雲服務、IP 供應鏈的龐大陣營。

今年 4 月,UALink 發佈了 1.0 版本互聯標準,支持高達 1024 個加速器節點、800Gbps 帶寬互聯、以及開放的 memory-semantics 協議——這不止是一項通信技術,而是一次瞄準「去英偉達化」的系統性佈局。在 AI 芯片互聯架構這件事上,英偉達或許比任何人都明白:

不同於通用的 GPU 架構,ASIC 是為特定任務定製的芯片,在 AI 時代意味着它們可以針對推理、訓練、推流等核心計算路徑進行極致優化。這種理念如今已在微軟、Meta 和亞馬遜等巨頭內部深度落地,都在探索從英偉達 GPU 平臺向自研 AI ASIC 芯片遷移。

谷歌就是最好的例子,TPU 系列自發布以來已進化至第七代 Ironwood,專為推理任務而設計,每瓦性能直接超越了英偉達 Blackwell。OpenAI 研究員在 X 平臺上更認為 Ironwood 與 GB200 性能相當,甚至略勝一籌。更重要的是,TPU 系列已經支撐起了 Gemini 大模型從訓練到推理的大規模應用。

圖/谷歌 圖/谷歌

與此同時,除了老對手 AMD,包括 Meta、AWS 等新晉芯片廠商也在試圖「趕超」英偉達 GPU。基於與博通的合作,Meta 首款 AI ASIC 芯片 MTIA T-V1 就被曝規格可能超過英偉達的下一代 Rubin 芯片,AWS 則是在與 Marvell 合作的基礎上,啟動了不同版本的 Trainium v3 開發,預計於 2026 年陸續量產。

而據野村證券稍早前發佈的最新報告指出,2025 年谷歌 TPU 出貨量預估 150 萬至 200 萬,AWS Trainium 和 Inferentia 預估 140 萬至 150 萬,等到 Meta 與微軟開始大規模部署,有望 2026 年在出貨量上首次超越英偉達 GPU(500 萬至 600 萬)。

初創公司方面,研發出全球最大芯片的 AI 芯片「獨角獸」Cerebras,以 Wafer‑Scale Engine(WSE)引領訓練芯片架構的革新,在多個政府和科研超算項目中落地;軟銀收購的 Graphcore 雖經歷波折,但仍堅持在神經網絡處理架構(IPU)上尋求突破;Tenstorrent、Rebellions 等新秀則在 AI 推理、邊緣計算等細分領域持續積累客户與出貨量。

全球最大芯片,圖/ Cerebras 全球最大芯片,圖/ Cerebras

英偉達當然看懂了這股暗流,所以選擇用 NVLink Fusion 做出迴應。但現實是,越來越多的玩家已經不再滿足於做配角。ASIC 的崛起,不只是一次技術路線的迭代,更是一場由巨頭主導、由聯盟推動、由生態背書的系統性挑戰。英偉達固然強大,但面對這樣的對手,仍然警惕。

巔峰之下,英偉達的三個軟肋

市值衝上 3.92 萬億美元的那一刻,英偉達站上了全球資本市場的頂點。但在這個耀眼的高度之下,越來越多的問題開始浮出水面。從產業依賴,到產品結構,再到生態策略,英偉達仍然存在可能,被它自己一手打造的成功邏輯反噬。

其一在於超大規模客户的集中依賴。英偉達目前約 88% 的營收來自數據中心業務,而其中大頭集中在極少數幾家雲計算巨頭手中:微軟、AWS、阿里、Meta、谷歌,以及越來越有野心的 OpenAI。也正是這些客户不僅自研 AI 芯片,還組建了 UALink 聯盟,正在親手削弱英偉達 GPU 的統治力。

谷歌有 TPU,亞馬遜有 Trainium,Meta 和微軟分別推出了 MTIA 與 Maia 系列加速器。OpenAI 也在測試谷歌 TPU 的同時,自研 AI 芯片的消息不斷流出。這些客户不是不需要英偉達,而是不想「只」依賴英偉達。

其二在於性價比。Blackwell 平臺帶來了幾乎碾壓式的算力提升,特別是 GB200 架構在訓練和推理性能上的躍升。但與此同時,這一代產品的複雜性、功耗和成本也大幅攀升。據匯豐銀行消息,一套 GB200 NVL72 服務器售價高達 300 萬美元左右,讓許多客户望而卻步。

GB200 NVL72,圖/英偉達 GB200 NVL72,圖/英偉達

這種極致設計策略確實鎖定了高端市場,但也帶來了兩個副作用:一是把中小客户甩在了門外,二是推動客户尋找更便宜、更省電的替代品。當 AI 推理成為主流任務,性價比往往比絕對性能更重要,而這正是 ASIC 等專用芯片擅長的領域。

此外針對雲廠商等大客户,早期願意為性能付費。但隨着部署規模擴大、模型標準化、預算緊縮,即便是大型廠商也越來越希望能有更多自主權和談判空間。當英偉達變成「不得不用」,也就意味着產業鏈已經開始尋找「有沒有可能不用」的選項,而谷歌 TPU 的成功更是一種激勵。

其三在於英偉達的生態壁壘。英偉達 CUDA 是目前業界最強大的 AI 編程生態,但它的高度封閉也讓它逐漸成為一個「屬於英偉達」的世界。在 UALink 聯盟、OneAPI、MLIR 等開放生態興起的背景下,越來越多開發者和系統設計者開始追求跨平臺兼容、異構協同,而不是將命運綁定在一家公司的工具鏈上。

CUDA 一度是英偉達的護城河,但如今也在一定程度上成爲了限制開發者自由流動的「生態高牆」。當更多廠商期望在不同架構間靈活切換,CUDA 的壁壘也可能成為他們轉身的理由。

回頭來看,英偉達固然仍然是今天最強的 AI 芯片廠商,站在技術、產品和市值的巔峰。但巔峰從來不是終點,它只是更多挑戰的起點。更關鍵的是,英偉達面對的不是一次技術換代的風險,而是一次由客户主導的去中心化。正如前文所言:英偉達的世界第一,並不穩。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。