熱門資訊> 正文
2026-05-07 12:59
財聯社5月7日訊(編輯 劉蕊)全球AI算力競賽再掀巨浪,頭部玩家的「軍備」升級從未如此迅猛。
美東時間周三,AI獨角獸Anthropic官宣重磅合作,正式租下SpaceX旗下Colossus 1數據中心全部算力,拿下了這座曾支撐xAI訓練Grok超算的「頂級算力堡壘」。
根據協議,這筆合作將在1個月內為Anthropic帶來超300兆瓦新增算力,等效22萬塊英偉達GPU,直接刷新行業算力擴容紀錄。
此番聯手,不僅讓長期因算力不足受限、頻繁限流的Anthropic一舉擺脫資源桎梏,更讓馬斯克旗下SpaceX深度入局AI算力租賃賽道。
那麼,22萬GPU、300兆瓦容量究竟意味着什麼?這筆「天價」算力交易背后藏着怎樣的博弈?本文將為您深度拆解這場AI算力圈的關鍵變局。
簽約主體:SpaceXAI與Anthropic
值得注意的是,就在這場協議公佈后,馬斯克在X上發表的另一篇文章中表示,xAI「將作為一家獨立公司解散」,並將更名為 SpaceXAI。
算力規模:Anthropic在一份聲明中表示,該協議使其「在一個月內獲得超過300兆瓦的新產能」。
根據xAI官方數據,這次Anthropic租賃的Colossus 1是全球最大的AI數據中心之一,配備了超過22萬塊英偉達GPU,其中包括密集部署的H100、H200和下一代GB200加速器。
數據中心位置:美國田納西州孟菲斯
交付時間:一個月內
重要性:
對於Anthropic:
在此之前,Anthropic公開算力估算僅不足10萬H100當量,明顯落后OpenAI和谷歌DeepMind等同行。這次新增22萬張GPU算力后,總算力直接追平甚至超越部分大廠,為下一代大模型訓練、多模態升級、企業級大規模部署提供硬件底氣。
對於SpaceX:
a.閒置頂級算力直接變現:Colossus 1 原本為xAI訓練而建,xAI併入SpaceX后訓練主力遷移至 Colossus 2,1號機群處於高投入、高耗電、低產出的閒置狀態。租給 Anthropic后,這一閒置產能可直接實現算力變現,降低AI業務虧損率,為IPO提供強現金流故事。
b.「太空算力」夢想更進一步:雙方聯合研發軌道級算力的約定,意味着SpaceX把「數據中心上天」從概念朝着工程路線更進了一步。
用户直接收益;
1.Anthropic將Claude Code針對 Pro、Max、Team 和企業計劃的服務時長限制從原來的 5 小時提升至 10 小時。
2.Anthropic將取消 Claude Code Pro 和 Max 賬户的「高峰時段使用限制」規定。
3.Anthropic將大幅提高Claude Opus 模型的API 請求上限,具體數據如下面表格所示:
300兆瓦相當於什麼概念
如SpaceX所説,300兆瓦的功耗相當於22萬張英偉達GPU。
我們以當前主流AI訓練芯片(如H100)為假設基準來進行推算:單H100 GPU典型功耗大約為700W,那麼22萬片GPU本體功耗大約為154MW,剩下電力用於冷卻、供電損耗、網絡與管理系統。
當然,實際上SpaceX還使用了H200、GB100等芯片,不同芯片的功耗不同,所以實際的用電數據可能略有出入。
直觀來看,300兆瓦相當於一箇中型城市或大型工業園區的用電負荷。一般來説,300MW可滿足約20–30萬戶家庭的日常用電。換句話説,即一箇中型城市的全部居民用電都用於給Colossus 1這一個數據中心發電。
而和同行對比的話,根據摩根士丹利、高盛、Bernstein等行業分析師推算,各大AI大廠的全網全域可調度總算力當量數據約為:
OpenAI:預估在15萬–20萬張H100當量(分散在多個集群,非一次性可用)
Google DeepMind:約10萬–15萬張H100當量
Meta(LLaMA):約8萬–10萬張H100當量
Anthropic(與SpaceXAI簽約之前):不足10萬張H100當量(所以此前一直限流)