熱門資訊> 正文
2026-05-05 08:00
神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。
編者按:一座巨型數據中心,正在倒逼工程師徹底打破行業舊規則。本文來自編譯,希望對您有所啓發。
人類對更智能(如今意味着更大規模)AI 模型的需求永無止境,再加上現有 AI 技術的全面普及,全球數據中心建設迎來爆發式增長,項目數量與建設規模都創下歷史新高。其中最受矚目的,是Meta 2025 年 6 月官宣、落户美國路易斯安那州的亥伯龍(Hyperion)數據中心,總供電容量高達 5 吉瓦。Meta 首席執行官馬克・扎克伯格表示,Hyperion的佔地面積將堪比大半個曼哈頓城區;項目一期供電容量 2 吉瓦,計劃 2030 年竣工。
雖説 5 吉瓦的超大體量放眼行業無出其右,但如今全球已有數十個同類巨型項目同步推進。建築數據平臺 ConstructConnect 首席經濟學家邁克爾・古克斯透露:2025 年 7 月前,全球數據中心投入已突破 270 億美元;全年總額輕松超 600 億美元,僅Hyperion一個項目,就佔到總投入的四分之一。
對負責落地這些工程的工程師而言,眼下的挑戰前所未有。頂尖科技巨頭不惜重金,全力加碼算力、散熱、網絡三大核心技術,打造五年前根本不敢想象的超大規模基建。
但極速建設的背后,隱患重重。大型數據中心施工需要湧入大量臨時務工人員,直接引發噪音擾民、交通擁堵、環境污染,還常常推高當地電價。而且 AI 數據中心全年 24 小時不間斷超高耗電,建成后的環保壓力依舊巨大。最新研究顯示,僅美國境內,這類數據中心每年碳排放就可達數千萬噸二氧化碳當量。
即便問題頻發,頭部 AI 企業與工程師仍在全速推進巨型數據中心建設。那麼,打造一座史無前例的超大型數據中心,究竟要攻克哪些難關呢?
傳統數據中心,都是鋼筋混凝土地基搭配鋼結構骨架,再澆築混凝土牆體,只需要搭建穩固的建築外殼就行。Meta 甚至曾搭建巨型臨時帳篷,快速落地簡易數據中心。
可頂級 AI 數據中心的超大體量,催生了無數全新難題。建築諮詢公司雅各布副總裁羅伯特・黑利説:最大的難題藏在地下。地基土質松軟、易腐蝕、易膨脹,都會延誤工期,必須投入高額成本加固改造。
工程設計公司斯坦泰克資深技術負責人阿曼達・卡特補充,土壤導熱性同樣關鍵,因為絕大多數電力設施都埋在地下。如果土壤導熱差,設備產生的熱量散不出去,極易引發故障。開工前,工程師往往要採集成百上千份土壤樣本反覆檢測。
算力硬件:機櫃堪比重型設備。如今 AI 數據中心普遍採用機櫃級集成系統,比如英偉達 GB200 NVL72 整機櫃。單櫃集成 72 塊 GPU、36 顆 CPU,顯存最高可達 13.4TB;機櫃高 2.2 米,淨重超 1.5 噸。這就要求數據中心必須加厚混凝土、強化鋼筋承重,遠超普通建築標準。單個 GB200 機櫃最高耗電 120 千瓦。若Hyperion滿負荷實現 5 吉瓦供電,園區可部署超 4.1 萬套機櫃,搭載算力芯片總量突破 300 萬塊。未來新一代 GPU 功耗、性能更強,最終裝機數量會略有縮減,但能耗壓力只會更大。
資金投入:千億級豪砸基建。據統計,2025 年前七個月全球數據中心投入近 270 億美元,全年預估逼近 600 億美元。僅 Meta 的 Hyperion 項目,耗資就高達 100 億美元。如今數據中心建設,已經成了建築業的核心支柱。在住宅、公共基建需求萎縮的大背景下,ConstructConnect 發佈的 2025 年三季度財報直言:若非數據中心新項目狂砸 1100 億美元託底,建築業衰退會嚴重得多。
充足的資金,讓企業徹底摒棄傳統省錢思路。AI 熱潮前,數據中心優先追求低成本、易施工;如今只拼速度、拼規模。超大預製混凝土牆板、樓板全面普及:部分樓板跨度可達 23 米,每平方米承重上限高達 3000 公斤,是通用工業建築國標上限的兩倍多。很多構件還要單獨定製,放在過去,根本不具備經濟效益。
工期也被大幅壓縮:算力基建企業克魯高管透露,過去 30~36 個月的工期,如今最快 12 個月就能完工。極速趕工之下,人力、物料調配難度陡增。
Hyperion選址路易斯安那州里奇蘭鄉村教區,當地常住人口僅 2 萬,施工期卻湧入至少 5000 名臨時工。高薪崗位帶動周邊餐飲、小店短期增收,但也引發居民投訴:交通擁堵、施工噪音、粉塵污染,再加上全天候施工帶來的光污染,矛盾不斷加劇。同時,施工還會破壞地下水層、影響污水排放,部分依賴井水的居民水質受損,已有美國城市直接出台禁令,拒絕新建數據中心。
電力,是 AI 數據中心的頭號難題,也是環保爭議的核心。傳統數據中心選址,優先靠近供電穩定、響應及時的電力樞紐。美國弗吉尼亞州電力企業會配套新建清潔能源電站,保障園區用電。
但頂級 AI 數據中心的耗電量,早已超出常規電網承載能力。加州勞倫斯伯克利國家實驗室數據顯示:2014 年,全美所有數據中心總耗電均值僅 8 吉瓦;如今一座頂級 AI 園區耗電就能達到 1 吉瓦,Hyperion更是高達 5 吉瓦。
清潔能源機構項目負責人阿貝・拉馬南坦言:數據中心,是各大電力企業最頭疼的難題。為應對突發超高用電,很多老舊高污染的化石燃料應急電站本該淘汰,如今又被迫重啟服役。
Meta 為解決Hyperion供電,直接和路易斯安那州電力企業安特吉合作,新建三座燃氣輪機發電站:兩座落地園區周邊,一座佈局州東南部。安特吉表示,Meta 全額承擔電站建設費用,不會增加普通居民電費。但彭博社調研發現,絕大多數落地數據中心的區域,電價都會上漲,Meta 這個案例實屬特例。
碳排放壓力巨大。2025 年《自然》期刊研究預測:到 2030 年,僅美國數據中心每年碳排放就高達 2400 萬至 4400 萬噸二氧化碳當量。除了混凝土建材生產排放,絕大部分污染都來自 AI 服務器的超高耗電。Hyperion三座新建燃氣電站,全生命周期每年碳排放預估 400 萬至 1000 萬噸,堪比拉脱維亞整個國家的年度排放量。
數據中心一般以混凝土搭建主體,再用鋼材做骨架,加固並支撐混凝土外牆結構。地基通常採用現澆混凝土,而牆體與樓板大多使用預製混凝土板材,最大跨度可達 23 米。樓板採用類似鋼樑的加固 T 型結構,最厚處寬度可達 1.2 米。大型數據中心,往往要用上數百塊這種混凝土板材。美國水泥協會預計,接下來三年,這波大規模建設熱潮會消耗 100 萬噸水泥。不過這個用量,在整個水泥行業里佔比仍然很小 ——2024 年全美水泥總產量就有約 1.03 億噸。
這幾座發電廠總裝機發電量可達 2.26 吉瓦,均採用聯合循環燃氣輪機,能回收廢氣中的余熱再利用。這種技術可將熱效率提升至 60% 以上,讓更多燃料轉化為可用電能。相比之下,簡易循環燃氣輪機直接排放廢氣,熱效率僅維持在 40% 左右。
即便用上高效機組,Hyperion 配套電廠的全生命周期年碳排放量,仍會達到 400 萬至 1000 萬噸二氧化碳,具體取決於機組啟用頻次與建成后的實際能效標準。排放量最高時,相當於 200 多萬輛私家車一年的尾氣總和。
好在 Meta 並非所有數據中心都採用這種供電方式。該公司已宣佈,俄亥俄州的大型數據中心項目普羅米修斯,計劃 2026 年底投產,將全程使用核能供電。但其他科技巨頭爲了快速建成數據中心,紛紛選擇能效更低的供電方案。
極致案例當屬落户孟菲斯的 xAI巨神二號數據中心:企業直接運來數十臺臨時燃氣輪機發電機,給這片城郊園區供電。而 OpenAI 落户得州阿比林的星際之門新數據中心(預計 2026 年下半年投用),也配備了總功率最高 300 兆瓦的燃氣輪機。這兩家使用的都是簡易循環機組,能效遠低於安特吉為亥伯龍打造的聯合循環發電廠。
目前燃氣輪機供不應求,新機訂單最長要排隊七年。部分數據中心爲了趕工期,甚至改造翻新退役航空發動機,拿來充當發電輪機。
如今對全新穩定電力的迫切需求,根源在於現代 AI 數據中心里功耗驚人的顯卡(GPU)。2025 年 1 月,馬克・扎克伯格發文宣佈:Meta 計劃在 2025 年底,投入運營至少 130 萬塊 GPU。OpenAI 的星際之門數據中心,規劃搭載超 45 萬塊英偉達 GB200 顯卡;xAI 的巨神二號(巨神一期擴建項目),設計裝機容量更是突破 55 萬塊 GPU。
目前,GPU 仍是 AI 算力任務的首選核心硬件。它們被集成組裝成一體化機櫃,尺寸堪比大型櫃體;和存放它們的數據中心一樣,這些機櫃的重量、結構複雜度、耗電量,都在飛速飆升。
除了強悍的算力,英偉達 GB200 NVL72 整機櫃還需要超大容量內存。一臺 GB200 NVL72 機櫃,最高可搭載 13.4TB 高帶寬內存。像亥伯龍這種超大型數據園區,整體內存儲備至少需要幾十 PB。暴漲的需求直接推高了內存價格:2025 年,DRAM 內存(尤其是 DDR5 型號)價格漲幅高達 172%。
亥伯龍數據中心共有 11 棟主樓,總供電容量達 5 吉瓦。按每棟樓配置相近來算,單棟樓耗電接近 500 兆瓦,這電量足以供給大約 420 萬戶美國家庭使用。單單這座坐落於里奇蘭教區的亥伯龍數據中心,耗電量就已是 xAI 「巨神」 數據中心的兩倍。而后者在 2024 年夏季建成時,還曾是全球規模頂尖的超大型數據中心之一。
英偉達 GB200 NVL72 整機櫃系統,是當前 AI 數據中心的主流首選方案。單臺機櫃內置 72 塊顯卡、36 顆處理器,最高配備 17TB 內存;機櫃高 2.2 米,最重可達 1553 公斤,功耗約 120 千瓦,相當於 100 户美國家庭的總用電量。英偉達表示,這還只是起步階段,未來單臺機櫃功耗或將飆升至 1 兆瓦。
維帝公司基礎設施解決方案高級副總裁維克托・佩蒂克坦言,AI 整機櫃技術迭代太快,倒逼數據中心全面改造升級。他説:新一代 AI 機櫃耗電更大、重量更沉,機房必須在不額外佔用空間的前提下,為機櫃配備多路獨立供電線路。
機櫃暴漲的用電需求,甚至直接改變了數據中心的整體設計,連佔地面積規劃都要重新調整。2022 年,Meta 在美國得克薩斯州坦普爾園區動工新建數據中心。據 AI 算力行業分析機構 SemiAnalysis 透露,項目最初沿用 Meta 經典的 H 型建築佈局,和旗下其他數據中心保持一致。
Meta 首席執行官馬克・扎克伯格當初一句 「亥伯龍佔地堪比大半個曼哈頓」,瞬間引爆熱議。很多人誤以為它是一棟單體巨型大樓,其實並非如此。亥伯龍實際是一組數據中心建築群,目前規劃建有 11 棟主樓,總建築面積超 37 萬平方米。這個規模,比紐約中央公園還要小不少 —— 而中央公園本身,也只佔到曼哈頓總面積的 6%。不過項目后續還有極大擴建空間:整個里奇蘭教區地塊總佔地 1470 萬平方米,大約相當於曼哈頓面積的四分之一。而且這 37 萬平方米的建築面積,還沒把配套外圍設施算進去,比如路易斯安那州電力公司專為該項目新建的三座聯合循環燃氣發電廠。
不過在 2022 年 12 月,受公司全面覆盤旗下數據中心基建規劃影響,這項工程中途停工。Meta 最終決定,把已經建好的部分全部拆除,從頭重新設計建造。官方從未公開説明停工重建的原因,但業內分析認為,核心問題是原有供電設計,撐不起新一代高功耗 AI 機櫃的用電需求。項目在 2023 年重新開工。
新版方案直接捨棄了原本的 H 型樓棟設計,改用簡約修長的長方形建築,每棟樓兩側都配套排布多組燃氣輪機發電機組。雖然 Meta 的規劃仍有可能調整,但目前敲定的方案是:在佔地 13.6 平方公里的里奇蘭教區園區內,建成 11 座長方形數據中心,每一座都將搭載數十萬塊 GPU 算力芯片。
英偉達超高密度 AI 顯卡機櫃,不僅憑藉超大自重、超高功耗在改寫數據中心標準,嚴苛的散熱與帶寬需求,也在徹底改變行業設計。
傳統數據中心一直採用風冷散熱,但這種方式如今已經碰到性能天花板。新加坡國立大學散熱研究實驗室(CoolestLAB)負責人李寶成表示:用空氣當散熱介質,本身就存在先天短板。
今后,顯卡散熱將全面轉向液冷方案,可這也大大增加了工程複雜度。李寶成解釋:整套改造要落實到機房基建層面,必須配備專業水泵機組,也就是冷卻液分配單元(CDU)。還要搭建錯綜複雜的管道網絡,把設備和機櫃連通,同時整套系統必須做好多重備用冗余設計。機櫃內部,管道會對接每一塊顯卡上方的水冷散熱板;機房外部,管路再連通蒸發冷卻設備。他坦言,老舊風冷機房也能改裝成液冷,但造價極其高昂。
與此同時,AI 數據中心的網絡架構也在為適配新需求全面升級。傳統數據中心選址,優先靠近網絡樞紐,方便接入全球互聯網;而 AI 數據中心,核心是打通顯卡與顯卡之間的高速互聯。
這類互聯,既要超大帶寬,又要絕對穩定可靠。通信基建廠商 ciena 的副總裁馬克・比伯里奇介紹,公司最新一代光纖收發模塊WaveLogic 6,單波長帶寬最高可達每秒 1.6TB;單根光纖可承載 48 個波長。頭部大客户會鋪設數百對光纖,整體總帶寬能達到每秒數千太比特。
Meta 的亥伯龍數據中心,正在美國路易斯安那州里奇蘭教區動工修建,整片園區佔地廣闊,約相當於四分之一個曼哈頓。(圖片來源:Meta)
很多人容易被亥伯龍以及其他大型 AI 數據中心的規模誤導,以為關鍵是單棟建築做得夠大。其實並非如此,亥伯龍並不是一棟大樓,而是多棟建築組成的建築群,靠高速光纖網絡互聯互通。比伯里奇表示:「把各個數據中心互聯起來,是必不可少的核心設計。你可以把整套園區看成一座邏輯上統一的 AI 訓練中心,只是硬件分散在不同位置。」
英偉達把這種模式稱作「橫向擴容」,和一味把單棟建築往大里建的 「縱向擴容」 區分開來。
目前,下一代超大算力機櫃的功耗、散熱、帶寬需求,都還沒有最終定論,工程師只能提前預判。
但所有人都認準一個核心:規模必須足夠大。五年前看似離譜的供電、散熱、網絡標準,如今已成剛需,行業舊規則被徹底改寫。
2025 年科技巨頭豪擲數百億砸向基建,也引發了業內對投入可持續性的質疑。但對一線工程師而言,這是實現技術突破的絕佳機會。
斯坦泰克的工程師直言:我們終於能攻克超高難度難題,這是行業久違的挑戰與榮光。
譯者:Teresa