熱門資訊> 正文
2025-11-04 16:16
【導讀】地球現在連顯卡都供不起了,微軟的GPU插不進機房。英偉達的H100直接飛向太空。
英偉達的GPU,地球真的已經「供不起了」!
今天看到兩個新聞,一個是微軟手里囤了無數的GPU,但是「插不進去」。
另一個是英偉達H100 GPU被發射到太空組建數據中心。
這兩個事情其實背后都隱藏着一個深刻問題:
GPU是造出來了,但是配套服務於GPU,給GPU供電,給GPU散熱的基礎設施並沒有跟上!
先説微軟的GPU放在庫房里吃灰這件事。
微軟CEO納德拉在與OpenAI奧特曼的訪談中爆出驚人事實——微軟手中囤積着大量GPU。
卻「沒有足夠電力」讓它們運轉。
另一個原因則更為現實,缺少可以立馬「插入GPU」的數據中心。
納德拉坦言:我現在的問題不是芯片不夠,而是沒有能插進去的「温暖機殼」(Warm Shell)。
所謂「Warm Shell」指的是具備供電與冷卻條件的數據中心外殼。
用一個對比就能快速理解這個概念,建築學上,相對Warm Shell則是Cold Shell。
Cold shell指的是建築結構/外殼基本具備,但室內幾乎沒有或只有極少的系統安裝。
Warm Shell則是更準備好了的狀態,安裝並可以使用基本的建築系統,比如散熱系統、暖通空調(HVAC)、照明、基本電/水/消防系統等。
AI熱潮引發的芯片競賽,如今正受制於最傳統的瓶頸——電力。
美國電網面臨前所未有的壓力,而科技巨頭則競相佈局小型核反應堆以自救。
與此同時,奧特曼還提到未來可能出現「能在本地運行GPT-5或GPT-6」的低功耗消費設備,這或將徹底顛覆現有數據中心商業模式。
相比奧特曼提出的低功耗設備,另一個新聞則提供了新的思路。
英偉達藉助Starcloud的Starcloud-1的衞星,將H100送到太空!
11月2日,星期日,英偉達首次將H100 GPU送入太空,以測試數據中心在軌道上的運行方式。
這款配備80GB內存的GPU,比以往任何在太空中飛行的計算機都強大一百倍。
支持者認為這一想法很合理:
在遠離地球的太空空曠處,數據中心不會佔用寶貴土地,也不需要那麼多能源和水來冷卻,也不會向大氣中排放加劇變暖的温室氣體。
這次為期三年的任務將搭乘SpaceX的Bandwagon 4獵鷹9號(Falcon 9)發射。
重量為60公斤的Starcloud-1衞星將在約350公里高度的非常低軌道繞地飛行。
在那里,它將接收由美國公司Capella運營的一隊合成孔徑雷達(SAR)地球觀測衞星傳來的數據,對其進行實時處理,並向地面傳送消息。
而在太空設立數據中心另一大優勢就是,只需回傳很小部分的數據。
下行傳輸合成孔徑雷達(SAR)數據歷來是個大問題,因為數據量極其龐大。
但能夠在軌處理就意味着我們只需下行傳輸「洞見」。
什麼是洞見?
所謂洞見可能是某艘船在某個位置以某個速度朝某個方向航行。
那只是一小包約1千字節的數據,而不是需要下傳的數百吉字節原始數據。
簡單來説,就是讓算法貼近數據源頭,在本地完成篩選、融合與推理,僅把高價值的「信息摘要」回傳。
再簡單點(但不一定精確),就是數據都在外太空處理好,只傳送回來結論。
這種方式能更好地實現低時延響應、顯著節省帶寬與能耗、提升韌性(斷聯/災害場景可持續運行),並降低敏感數據外泄風險。
和微軟CEO納德拉的煩惱不一樣,Starcloud是主動探索這種數據中心模式。
就像他們的公司名字一樣,Stra Cloud,太空的數據中心。
當然這麼做的主要驅動力不是爲了GPU降温。
而是地球能源與資源的瓶頸:
地球數據中心太耗能了!
到2030年,全球數據中心的耗電量預計將等於整個日本的用電量。
同時,它們每天要消耗海量冷卻用水(1 MW 級中心≈1000人日用水量)。
相比下來,太空則是有天然優勢。
無限太陽能:軌道上 24 小時都有陽光,無需電池儲能。
零土地佔用:不需要地面建設,不破壞生態。
無温室氣體排放:不依賴化石能源。
歸根到底,還是現在AI的算力需求爆炸。
AI模型越做越大(如GPT、Claude、Gemini等),能源和冷卻成本飛漲,企業急需新解法。
因此,太空數據中心被視為長期可擴展的解決方案。
通過利用低成本、持續不斷的太陽能,並避免佔用土地和使用化石燃料,Starcloud的技術使數據中心能夠快速且可持續地擴展,隨着數字基礎設施的發展,這有助於在保護地球氣候和關鍵自然資源的同時實現增長。
另一個值得一提的就是,很多人覺得GPU上天,是因為地球太熱,太空好散熱。
其實不是的。
太空能散熱,但很困難。
太空幾乎沒有空氣,所以不能用風扇或液體循環帶走熱量(這叫對流散熱)。
對流散熱指的是「熱的流體(液體或氣體)移動,把熱量從一個地方帶到另一個地方」的過程。
只剩下輻射散熱這一種方式:
輻射散熱是「物體通過電磁波/紅外波,把熱量以波的形式發射出去」的過程。
設備通過紅外輻射向外太空釋放熱量。
散熱效率取決於輻射面積、材料發射率和温度。
因此衞星或太空GPU需要大面積的散熱板(radiators),設計極其關鍵。
在Starcloud的項目中,這部分被特別強化:
他們為H100設計了專用熱輻射系統,利用真空中的高温差和導熱材料實現散熱。
爲了給地球省電、省地、省水,去太空建數據中心靠譜嗎?
Starcloud的首席執行官兼聯合創始人約翰斯頓説:
我的預期是,在十年內,幾乎所有新建的數據中心都會建在太空。
原因純粹是我們在陸地上面臨的能量限制。
約翰斯頓説在太空中唯一的額外成本就是發射費。
發射成本在每公斤約(美)500 美元時能夠達到收支平衡。按每千克計算,SpaceX的星艦在完全投入運營后,發射價格估計在150美元到僅10美元不等。
隨着星艦的投入使用,我們預計發射成本會更低。
Starcloud已經在規劃其下一次任務,計劃明年將一個計算能力比Starcloud-1強十倍的數據中心送入太空。
Starcloud-2任務將配備英偉達的Blackwell GPU和若干H100。
約翰斯頓表示,該任務將提供7千瓦的計算能力,預計為包括地球觀測衞星運營商客户提供商業服務。
微軟的「沒有温暖機殼」,和Starcloud把H100送上天,本質上是同一道題。
AI再厲害,算力需求再大,也不能突破物理定律。
參考資料:
https://www.starcloud.com/starcloud-2
https://spectrum.ieee.org/nvidia-h100-space
本文來自微信公眾號「新智元」,編輯:定慧 ,36氪經授權發佈。