熱門資訊> 正文
2026-05-09 17:44
關於這輪 AI 熱潮到底是不是泡沫這個問題,過去兩年爭論不休。但在反覆討論「這些錢花得值不值」之前,我們似乎都默認了一個前提:這筆錢是一個大致確定的數字。但高盛近期發佈的一份報告認為,這個前提可能並不成立。
近期,高盛全球研究院發佈了一份名為《Tracking Trillions》的報告,他們以英偉達(NVIDIA)的前瞻數據中心收入作為錨點,推算出 2026 至 2031 年全球 AI 基礎設施累計資本開支的基線:約 7.6 萬億美元。其中,計算芯片約 5.1 萬億,數據中心約 2.15 萬億,電力約 3,580 億。2026 年單年約 7,650 億美元,到 2031 年增至 1.64 萬億。
但報告真正想説的不是 7.6 萬億這個數字高或低,而是這個數字本身極其脆弱。市場習慣把 AI CapEx(資本支出)當作需求側問題來討論:AI的商業化能不能撐起這些投入?但高盛認為,供給側的不確定性同樣巨大,而且被嚴重低估。建這些東西到底要花多少錢,取決於一小組很少被攤開討論的假設。
改變其中任何一個,萬億美元級別的數字就會跟着偏移。
一塊芯片該折舊幾年
報告列出了四個最能撬動總量的假設。排在第一位的是 AI 芯片的經濟使用壽命。
這是一個正在華爾街引發激烈爭論的變量。目前超大規模廠商普遍按 4 到 6 年的周期對 GPU 服務器計提折舊。但英偉達已轉向年度產品發佈節奏:Hopper(2022)、Blackwell(2024)、Rubin(2026)、Rubin Ultra(2027)每一代在能效和性能上都是數量級的躍升,而非漸進式改良。這使得 5 到 6 年的折舊周期在經濟意義上越來越難以自洽。
高盛的敏感性分析顯示,將芯片使用壽命從 5 年縮短到 3 年,2026-2031 年間的隱含年度折舊總額從約 3 萬億美元跳升至近 4 萬億美元;反過來延長到 7 年,則降至 2.2 萬億美元。僅這一個參數的調整,就可以讓生態系統承受的折舊成本偏移上千億美元。
知名投資人 Michael Burry 在 2025 年下半年公開做空英偉達和 Palantir 時,正是以此為核心論據。他估計 2026 至 2028 年間,超大規模廠商因高估芯片使用壽命將累計少計約 1,760 億美元折舊,從而使利潤虛高超過 20%。他的判斷是:芯片的真實經濟壽命接近 2 到 3 年,當前的會計處理不過是一種盈余管理。
各家廠商的實際動作也呈現出有意思的分歧。亞馬遜在 2025 年初將部分服務器的折舊年限從 6 年縮短至 5 年,為此承受了約 7 億美元的營業利潤衝擊,並在 2024 年四季度對一批提前退役的設備計提了 9.2 億美元加速折舊。
微軟 CEO Nadella 則公開表示,公司正有意拉開不同代際芯片的採購節奏,避免在單一代產品上揹負四五年的折舊包袱。而 Meta 在三年內三次延長服務器使用壽命,最近一次在 2025 年 1 月,將折舊減少轉化為單季度 29 億美元的利潤增量,恰好發生在亞馬遜縮短折舊周期的同一時間。
CoreWeave CEO 則給出了相反的證據:該公司 2020 年購入的 A100 芯片目前仍然滿負荷運轉,一批合同到期的 H100 被立刻以原價 95% 的價格重新租出。高盛報告也承認,舊芯片在推理、邊緣計算和合成數據生成等低敏感度場景中仍有經濟價值,這種分層部署模式可能支撐更長的使用壽命。
爭論的本質不是技術問題,而是利潤表問題。折舊年限決定了每年需要攤銷多少成本,進而決定了這場萬億美元豪賭的賬面回報率。
數據中心正在變成另一種東西
第二個關鍵假設是數據中心的建設成本。高盛的基線假設是每兆瓦 1,500 萬美元。但報告指出,這個數字正面臨上行壓力。
傳統雲數據中心的建設成本大約是每兆瓦 1,000 萬美元。AI 時代的數據中心完全不同:機架功率密度從過去的 5-15 千瓦飆升到 Blackwell 時代的 130-200 千瓦,再到 Rubin 時代的 500 千瓦以上;冷卻方式從風冷轉向全液冷;計算、內存、網絡和供電必須協同設計而非獨立堆疊。
NVIDIA 在 2026 年 GTC 上發佈的 Vera Rubin 平臺將這種壓力推向了新的極端。NVL72 機架將 72 塊 Rubin GPU 和 36 塊 Vera CPU 封裝進標準 42U 機櫃,功耗相當於 40 户美國家庭,要求 45°C 進水温度的直接液冷和 800V 直流供電,大多數現有設施完全無法承載。未來的 NVL576 配置更是指向每機架 600 千瓦。
高盛的敏感性分析顯示,將數據中心成本從每兆瓦 1,500 萬美元調整到 1,900 萬美元,六年累計數據中心 CapEx 從 2.15 萬億美元上升到 2.72 萬億美元,增量超過 5,700 億美元。而且建築和電力設施的設計壽命通常是 20 到 25 年,但當設施的技術需求可能在投產兩年內就發生根本性變化時,長壽命資產的「耐久性」反而成了風險。
報告還點出一個尷尬的現實:不到兩年前建成的「過渡型 AI 數據中心」可能已經無法滿足下一代芯片的功率和散熱需求。當一座數據中心的設計壽命是 20 年,但技術需求可能在投產兩年內發生根本變化時,長壽命本身就變成了風險。
省下來的錢,會不會直接花掉
第三個假設涉及芯片架構選擇。
GPU 之外,越來越多算力會通過 ASIC(Application-Specific Integrated Circuit,專用集成電路)交付:Google TPU(Tensor Processing Unit)、AWS Trainium、Meta MTIA、OpenAI 與 Broadcom 合作的定製芯片。這些芯片在特定任務上的每單位有效算力成本和功耗都比通用 GPU 低。
僅就近期合同看:Anthropic 在 2025 年 10 月宣佈從 Google 採購至多 100 萬顆 TPU,規模「幾百億美元」,2026 年 4 月這個合作擴展到 5 GW 的 TPU 容量與 400 億美元的 Google 投資。Broadcom 2025 財年的 AI ASIC 營收約 200 億美元,訂單積壓 730 億。Morgan Stanley 把 2027 年 TPU 出貨量估計上調到 500 萬顆,2028 年到 700 萬顆。
但 Lee 和 Greenbaum 更想問的問題是:這些更便宜的算力,最終會讓總建設規模變小,還是會被新一輪使用吸收掉?
他們把問題歸結為一個變量:算力需求的彈性。
一種情景是需求相對固定。機構知道自己要訓練多大的模型、服務多少用户,更便宜的芯片直接縮小資本盤子,架構選擇實實在在地改變總數。另一種情景是需求跟着價格走。算力變便宜了,團隊就會訓更大的模型、跑更長的上下文、把 AI 塞進更多原本不值得用的場景,省下來的錢又花回去了。總的基礎設施規模沒變,變的是誰賺走了中間的利潤。
報告提到,NVIDIA 數據中心 GPU 的毛利率約 75%,遠高於其他芯片供應商。萬億美元乘以 75%,這個利潤池將成為超大規模廠商轉向自研芯片的最強動機。問題是,這個動機驅動的結果是「少花錢」還是「多用量」,答案完全不同。
目前報告的基線傾向於后者。在算力需求遠未飽和的階段,便宜的計算催生的是更多使用,而不是更少投入,架構變化改變的是價值分配而非總盤子。作者也承認這個判斷有時效性:當推理負載佔比上升、利潤率壓力增大、邊際算力的回報開始遞減,更便宜的芯片確實可能開始壓縮總支出。但那個階段還沒到。
瓶頸不改變成本,但可能改變信心
第四個假設是建設周期拉長。電力接入排隊、審批流程、專業勞動力短缺、變壓器和冷卻設備的交貨周期(目前 GPU 交貨期已延長至 36 到 52 周),都在拉大資本投入與產能上線之間的時間差。
延長本身不改變單位成本。電力的價格、數據中心的每兆瓦造價、芯片的效率都不動。它通過另一種方式作用:拉長時間線、增加協調複雜度,最終讓 take-or-pay 合同的承約方、信貸供給方、依賴二級市場融資的運營方都暴露在更長久的不確定性下。
高盛認為,在基準情景下,瓶頸只是拖慢了部署節奏而非減少了總量。項目延期、資本重複投入(最典型的是自建發電設施繞開電網排隊),結果是一個效率更低但總規模不變的建設過程。
但當瓶頸足夠嚴重、足夠持久,故事會從供給側滑向需求側。當大量項目同時卡住,市場的關注會從「我們怎麼把它建出來」轉向「我們到底是不是該建這麼多」。報告把這種狀態稱為反饋迴路:供給側的摩擦倒灌進需求側的懷疑。
報告判斷當前環境更接近基準情景,但緩衝不大。五大超大規模廠商 2026 年的 CapEx 指引已合計攀升至約 7,000 億美元(綜合多家分析師估算),較 2024 年的 2,000 多億美元翻了兩倍多。資本密集度已達到營收的 45%-57%,更像公用事業公司而非科技公司。
僅 2025 年一年,這些公司就通過債券市場融資超過 1,080 億美元,未來幾年的預計發債規模達 1.5 萬億美元。在這個槓桿水平上,執行層面的延迟很容易傳導為需求層面的質疑。
不改變總量的因素,和一個循環悖論
高盛還列出了幾個看上去很重要、但對總量影響有限的因素。
訓練與推理的比例變化影響的是回本速度,不是基礎設施總量。內存價格的劇烈波動本質上是供需失衡在極端採購量下的反映,高盛預計類似的短期衝擊還會在光互連、封裝等其他環節反覆出現。
自建電力確實抬高了單項目成本,但電力在六年累計投入中只佔約 3,580 億美元,不到總量的 5%,即使大規模鋪開也撼動不了 7.6 萬億的整體數字。這些變量決定的是誰賺錢、什麼時候賺錢,而不是總共要花多少錢。
報告坦言,其分析建立在一種循環的邏輯上:如果建設真的成功,基礎設施鋪開、瓶頸疏通、算力價格繼續下降,那麼結果結果未必是過剩,而很可能是新一輪需求和新一輪場景在更低的價格點上被激活。今天足以滿足 AI 野心的那一筆建設,恰恰是它對明天的技術機會不夠用的原因。
參考資料:
1.https://www.goldmansachs.com/insights/articles/tracking-trillions-the-assumptions-shaping-scale-of-the-ai-build-out
運營/排版:何晨龍
注:封面/首圖由 AI 輔助生成