繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

Anthropic大手筆租下SpaceX頂級數據中心!深扒協議細節:22萬塊GPU是個什麼水平?

2026-05-07 12:59

財聯社5月7日訊(編輯 劉蕊)全球AI算力競賽再掀巨浪,頭部玩家的「軍備」升級從未如此迅猛。

美東時間周三,AI獨角獸Anthropic官宣重磅合作,正式租下SpaceX旗下Colossus 1數據中心全部算力,拿下了這座曾支撐xAI訓練Grok超算的「頂級算力堡壘」。

根據協議,這筆合作將在1個月內為Anthropic帶來超300兆瓦新增算力,等效22萬塊英偉達GPU,直接刷新行業算力擴容紀錄。

此番聯手,不僅讓長期因算力不足受限、頻繁限流的Anthropic一舉擺脫資源桎梏,更讓馬斯克旗下SpaceX深度入局AI算力租賃賽道。

那麼,22萬GPU、300兆瓦容量究竟意味着什麼?這筆「天價」算力交易背后藏着怎樣的博弈?本文將為您深度拆解這場AI算力圈的關鍵變局。

簽約主體:SpaceXAI與Anthropic

值得注意的是,就在這場協議公佈后,馬斯克在X上發表的另一篇文章中表示,xAI「將作為一家獨立公司解散」,並將更名為 SpaceXAI。

算力規模:Anthropic在一份聲明中表示,該協議使其「在一個月內獲得超過300兆瓦的新產能」。

根據xAI官方數據,這次Anthropic租賃的Colossus 1是全球最大的AI數據中心之一,配備了超過22萬塊英偉達GPU,其中包括密集部署的H100、H200和下一代GB200加速器。

數據中心位置:美國田納西州孟菲斯

交付時間:一個月內

重要性:

對於Anthropic:

在此之前,Anthropic公開算力估算僅不足10萬H100當量,明顯落后OpenAI和谷歌DeepMind等同行。這次新增22萬張GPU算力后,總算力直接追平甚至超越部分大廠,為下一代大模型訓練、多模態升級、企業級大規模部署提供硬件底氣。

對於SpaceX:

a.閒置頂級算力直接變現:Colossus 1 原本為xAI訓練而建,xAI併入SpaceX后訓練主力遷移至 Colossus 2,1號機群處於高投入、高耗電、低產出的閒置狀態。租給 Anthropic后,這一閒置產能可直接實現算力變現,降低AI業務虧損率,為IPO提供強現金流故事。

b.「太空算力」夢想更進一步:雙方聯合研發軌道級算力的約定,意味着SpaceX把「數據中心上天」從概念朝着工程路線更進了一步

用户直接收益;

1.Anthropic將Claude Code針對 Pro、Max、Team 和企業計劃的服務時長限制從原來的 5 小時提升至 10 小時。

2.Anthropic將取消 Claude Code Pro 和 Max 賬户的「高峰時段使用限制」規定。

3.Anthropic將大幅提高Claude Opus 模型的API 請求上限,具體數據如下面表格所示:

300兆瓦相當於什麼概念

如SpaceX所説,300兆瓦的功耗相當於22萬張英偉達GPU‌。

我們以當前主流AI訓練芯片(如H100)為假設基準來進行推算:單H100 GPU典型功耗大約為700W,那麼22萬片GPU本體功耗大約為154MW,剩下電力用於冷卻、供電損耗、網絡與管理系統。

當然,實際上SpaceX還使用了H200、GB100等芯片,不同芯片的功耗不同,所以實際的用電數據可能略有出入。

直觀來看,300兆瓦相當於一箇中型城市或大型工業園區的用電負荷‌。一般來説,300MW可滿足約20–30萬戶家庭的日常用電。換句話説,即一箇中型城市的全部居民用電都用於給Colossus 1這一個數據中心發電。

而和同行對比的話,根據摩根士丹利、高盛、Bernstein等行業分析師推算,各大AI大廠的全網全域可調度總算力當量數據約為:

OpenAI:預估在15萬–20萬張H100當量(分散在多個集群,非一次性可用)

Google DeepMind:約10萬–15萬張H100當量

Meta(LLaMA):約8萬–10萬張H100當量

Anthropic(與SpaceXAI簽約之前):不足10萬張H100當量(所以此前一直限流)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。