繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

AI數據中心的萬億大基建時代:美國GDP增長全靠它

2025-11-05 09:25

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

(來源:鈦媒體APP)

美國經濟正在上演一場「冰與火」的極端分化。據美國《財富》雜誌10月7日報道,美國哈佛大學經濟學家傑森·弗曼(Jason Furman)的一項研究發現,2025年上半年美國GDP增長几乎完全由數據中心和信息技術推動,在這些技術以外的其他領域,增長率僅為0.1%。

在這場算力軍備競賽中,OpenAI宣佈將投入約1.4萬億美元,建設超30吉瓦的計算基礎設施,目標每周新增1吉瓦。馬斯克也公佈了xAI的算力目標,計劃5年內上線的AI算力達到等價於5000萬台H100的量級。

一場由科技巨頭主導、資本推動的萬億級基建浪潮正席捲而來,而它的商業模式卻未經過驗證,無人能斷言這場豪賭的終局。

本期《硅谷101》,主播泓君邀請了字節跳動數據中心與能源項目經理徐熠興(Ethan Xu),前特斯拉供應鏈總監王辰晟,來聊聊這輪AI大基建中巨頭們採取了哪些動作,背后的邏輯是什麼,它們正在帶火哪些行業,以及為何美國的電力建設如此困難。

以下是這次對話內容的精選:

01AI巨頭押注算力規模

泓君:現在所有的AI巨頭都在做數據中心,如果讓大家總結一下,你們覺得哪幾家做得最猛?當然,新聞報道上是OpenAI和微軟的5000億Stargate項目,還有OpenAI和甲骨文合作的3000億美元數據中心項目(中間可能有重合)。但我知道馬斯克的xAI在佈局數據中心和搶貨方面也非常猛的,扎克伯格也在全力投入。從你們的角度看,哪些公司最激進?策略是什麼?

Ethan:OpenAI的野心是非常非常大的,現在它公佈出來的數據是要做10個吉瓦的Stargate的項目。我覺得這可能只是一個剛剛的開始,它的野心可能是這個的十倍,甚至更多。這是在未來的比如説5到10年,他們想實現的一個目標。

泓君:十倍,5萬億的一個產業?

Ethan:我覺得這個數量級是基本上沒有問題的。

泓君:美國現在的GDP是二十幾萬億美元,差不多它這個就要佔GDP的,當然也不是一年……整體上佔一年整個美國GDP的25%了。

Ethan:我覺得是很高的,我們可以拭目以待,看一看今年美國的GDP的增長當中,有多少是數據中心基礎建設貢獻的,我覺得這個比例到70%,我也不會很吃驚的。

王辰晟:你有可能低估了。

Ethan:對,甚至有可能低估。我也看過黃仁勛或者一些諮詢公司的觀點,他們也認為在未來的五年,整個的數據中心基礎設施建設的投資規模應該是到5~7個萬億這個級別的。

Ablilene, Texas 星際之門項目 圖片來源:Bloomberg Originals Ablilene, Texas 星際之門項目 圖片來源:Bloomberg Originals

泓君:錢從哪來?

Ethan:錢從哪來確實是一個很有意思的問題。我記得你們之前做過一期節目,就是講錢從互相之間的資本循環中來,也是一種比較創新的融資方式(笑)。

泓君:辰晟怎麼看?哪一家最激進?

王辰晟:OpenAI肯定是相對比較激進的,因為你看它現在很多公告,它未來幾年跟英偉達有一個10吉瓦的意向,跟AMD有一個6吉瓦的意向,同時最近還有跟博通的一個10吉瓦的意向,加起來就已經是26吉瓦。500億一個吉瓦,這就已經是一個1.5萬億的一個概念了。

泓君:未來五年。

王辰晟:對,同時它在一些供應鏈上,非常激進地做佈局。最近跟三星和海力士包了一個90萬片晶圓每月的產能,它基本上佔了整個DRAM(動態隨機存取存儲器)市場可能1/3,HBM(高帶寬存儲器)市場60%,就它一家。

如果你是馬斯克,或者你是小扎,你會怎麼去應對?你也不希望被他們卡脖子,所以每個公司現在從供應鏈角度做得都不一樣。馬斯克xAI去橫掃了所有的小型的渦輪發電機。Meta過去幾年就已經做得非常激進,去各種買一些能源成本相對比較低的地,去建它的數據中心,最近是在愛達荷州還是俄亥俄州,又一個5吉瓦去上線,它的規模基本能佔大半個曼哈頓。Google也會做一些供應鏈上的佈局,比如一些光纜,它會做非常激進的供應鏈上的產能買斷。所以説其實每個巨頭都在發力,都不想在這個競爭當中輸人一頭。

Meta在路易斯安那州採購的太陽能發電設施 圖片來源:Common Energy Meta在路易斯安那州採購的太陽能發電設施 圖片來源:Common Energy

泓君:微軟我們好像沒有提到。

Ethan:微軟其實蠻有意思的,它去年的時候跟OpenAI的合作關係是非常融洽的,但是在年初的時候大家也看到一些新聞,提到關於OpenAI和微軟的關係已經有了一些變化,包括OpenAI開始去找Oracle或者其他公司合作建數據中心,微軟不是它唯一的數據中心提供商了。同時它也在某一些數據中心暫停施工,或者是退租了一些數據中心等等。

我們看最近這幾個月的發展,能夠感覺到微軟在數據中心投資這方面,和其他公司比是相對穩健的。OpenAI就完全是另外一種風格,都是每一兩個星期就會有一個非常大的公告,説我要建5個吉瓦、7個吉瓦的數據中心,和不同的公司合作,和整個產業鏈合作。所以能看出這兩個公司,在AI數據中心或者整個數據中心行業的投資和策略方面已經有一些不同了。

泓君:對,所以就是説微軟中間稍微緩慢了一點,最近又在加速。

Ethan:對,微軟最近剛剛宣佈了一個全世界最大之一的AI的數據中心,剛剛落成。我覺得這個行業的變化確實還蠻快的,年初的時候,我記得微軟的CEO在公開採訪中提到過,他覺得這個行業是有一些過度建設的,他覺得有一些泡沫,他想用更穩健的方式去建設數據中心。但是我們現在看到,微軟速度也蠻快的,並沒有像年初的時候説的那樣慢下來。所以我猜想,也許各個公司的高層在這一年里,他們的策略和想法上是有一些波動的。但是此時此刻,能感覺到所有人都在全速前進了。

王辰晟我覺得幾個巨頭,包括Google、亞馬遜和微軟,他們的態度可能是因為他們過去在雲上其實有很多的Data Center的投入了。像Google、微軟,他們現在已經有的Data Center可能已經超過10個吉瓦。對於從零開始發展的OpenAI,大家需要的增長速度是不一樣的,因為基數不同,反饋出來的激進程度也會有不同。

stargate site 1, texas 圖片來源:Sam Altman stargate site 1, texas 圖片來源:Sam Altman

泓君:這個點很關鍵,這是為什麼我們現在經常聽到的名字是Meta、xAI還有OpenAI,而不是這些雲廠商的巨頭像Google、亞馬遜和微軟。

我們剛剛其實提到了OpenAI,它在做Stargate的項目,在搶地,在跟芯片廠商去達成合作。馬斯克其實也是在搶發電機,Meta也在搶地。我是在想,那芯片供應其實也就這麼多,大家不會在某種程度上都有短缺嗎?

王辰晟:從純產業鏈的產能來講,芯片現在並沒有像能源這麼緊缺,如果你每一片把它用到刀刃上。臺積電的產能來講,它也在積極地去佈局,所以芯片相對是比較充足的。臺積電可能兩年之前有在説CoWoS它的先進封裝的產能會有些落后,但是它最近也在説在亞利桑那州要建兩個先進封裝的晶圓廠。這些產能在過去兩年經歷cycle的時候,他們已經在做投資了。

我只能相信老黃他的直接聲明是對的,在GPU的芯片的供應上肯定是不缺的,但是可能會有一些別的配套的產業上面會有一些額外的缺口,包括存儲器,線束,甚至於一些數據機櫃。但是可能這個缺口相比能源來説並沒有那麼大。

Ethan:我覺得這點可以補充一下,像我能看到的比較重要的幾個策略上的觀點。一個觀點就是我們剛纔一直在聊的所謂的電力優先(Power First),因為大家都已經明顯看到,最缺的就是電,誰能拿到電就意味着你能帶起更多的GPU,你就更有可能訓練出更好的模型,你就可能獲得更多的用户,更好的用户體驗,從而佔據更大的市場份額。而這樣的市場份額可能會給你帶來更多的營收和利潤,然后又可以再次循環,拿這些營收和利潤去買更多的電和地,繼續讓我的模型變得更好。所以Power First在很多大型公司里是一個非常重要的策略。

還有另外一個策略是大家都考慮到的,為什麼這些公司都那麼激進?最根本的一點是因為大部分公司現在都意識到——Underinvestment is riskier than over investment,就是所謂的投資不夠給你帶來的風險,要遠遠大於過度投資帶給你的風險。

為什麼會這樣呢?像AI這個行業,大家目前有一個大致的共識,就是很有可能誰最先獲得最好的AI模型,或者所謂的AGI的話,這家公司就會佔據比較大的一個市場份額,其他公司的生存空間就會很快地縮小,所以投資不夠的風險是非常大的。

我們再看一下過度投資會有什麼樣的風險?你無非就是買了更多的地、更多的電、更多的房子建數據中心,最后你發現可能買多了,無非就是把它用作自己公司內部的效率提升,或者租給其他人,或者就把這些地和電賣出去。總體來説,過度投資的風險是有封頂的。

泓君:因為它都是固定資產,這些固定資產你轉賣它也是容易的。

Ethan:比如説GPU你買多了,那你賣給其他公司也沒有什麼問題,所以它過度投資的風險相對來説是比較小的。而對於某些大的科技公司來説,如果投資不夠導致它沒有在這場競爭中勝出的話,它有可能面對的是一個生死存亡的一個境地。

所以這也是為什麼絕大部分公司寧願多投資。哪怕華爾街現在已經有一些質疑了,是不是過度投資了?你們能不能收得回利潤來?這個營收能不能cover住你們這個投資?甚至股價上也開始反映出來了。但是這些公司我覺得現在沒有一個眨眼睛的,都是繼續在加大投資。

Datacenter, Abilene 圖片來源:Sam Altman Datacenter, Abilene 圖片來源:Sam Altman

王辰晟:對,因為沒有人想當諾基亞。你跟股東説我4萬億的市值會變成3萬億的市值好呢,還是説我的4萬億的市值會變成0?你更多是有個夢想説,我現在投資,如果我經歷過這一場退潮,然后我活下來其他人死掉了,我就從4萬億變成10萬億……這是大家更喜歡聽到的一個故事,不代表它就一定會發生。

還有一點,在硅谷有一句話——Bill will always eat Andy,Andy代表Andy Grove(英特爾前CEO),Bill是比爾·蓋茨。就是説,你只要有基礎設施有硬件,軟件總有些辦法把你的資源運用掉的。

這周早些時候OCP(Open Compute Project),Meta的人就在里面説,其實他們目前的GPU光用來做他們內部一些AI,比方説Instagram或者Facebook,去篩除一些不合適的內容,也已經需要很多算力了。它就算有多余的閒置的算力,它用來做內部的降本,也是完全是可以的。所以我覺得現在主流的這些公司,都不會擔心過度投資然后沒有辦法用掉,而更多的是説,我怎麼把我有的這些資源去做更好的配置,去擴大利潤和收入。

我可以稍微補充一下Ethan剛剛講的一點,就是為什麼大家要建大的數據中心,這里有兩筆賬。一筆就是經濟賬。Google自己説過,在愛荷華州去建一個1吉瓦的AI Data Center,比同樣分佈式的一年可以省5億美金的運營成本,因為它更加高效,無論是從輸電、冷卻、運營來説。

同時,從一個AI算力的訓練的這個角度來講,比方説GPT-4,按照以前H100的卡,需要差不多16000張,以90天的時間,去做一個1.7萬億的數據量的模型的訓練。如果到GPT-4.5,它可能是10的26次方,它需要的是一個兩三倍的卡,甚至於説GB200,25000張卡,也需要90-120天去計算。在這樣一個AI軍備競賽的前提下,你肯定是不希望花一個季度才能訓練出一個模型。你更加希望的是每一周,或者每兩周,就可以有一個模型,不停地去進步,不停地去迭代。所以它造成了一個指數級別的需求,從一個萬卡集羣變成十萬卡集羣,甚至到百萬卡集羣。而且你可能需要訓練更大體量的數據模型,這樣就會把算力從以前30兆瓦的AI Data Center推到1吉瓦、甚至於5吉瓦的這樣一個Data Center的體量,因為大家都不想輸。

泓君:那我再問一個更底層一點的問題,大家為什麼需要建這麼大的數據中心?你們覺得這個數據中心,未來更多的是做這個模型的training,還是用作應用方向?這個數據中心是支持誰的?

王辰晟:兩年之前的話,大家可能有60%-70%算力是用於做預訓練的。當然預訓練也有它自己的瓶頸,現在有很多不一樣的工程上的優化,無論是從有專家的模型,包括説有一些post training去做強化學習的,這些都是一些廠商覺得怎麼樣提高這個模型的效率,而從預訓練轉換成一個后訓練的過程。

同時因為這本經濟賬,大家要確保我有收入。訓練是不能給你帶來收入的,一定是應用或訂閲會費才能給你帶來收入。所以現在所有的大廠都轉型把更多的資源用到推理上。今年早些時候,推理和訓練的比例已經轉成推理佔比更高,可能推理佔六成,訓練佔四成。之后推理的比例可能會大大增高,甚至佔到80%以上。

Datacenter, Abilene 圖片來源:Sam Altman Datacenter, Abilene 圖片來源:Sam Altman

泓君:所以現在的數據中心,是給這些AI廠商做推理來用的。

Ethan:我基本上同意這個觀點,在未來一定是推理和應用那方面的數據中心的利用,或者是能源的利用,佔比越來越高,而且是佔大頭的。當然AI的訓練也會有一定的佔比,它需要不斷地去迭代,推出更好的模型。推理的佔比高,意味着它越來越多地在應用層面創造出價值。就像微軟CEO之前説的,AI只有在真正創造GDP的時候,纔是有價值的時候,那個也是真正關鍵的時候。

泓君:那我們一定需要這種大的數據中心嗎?小的數據中心行不行?假設我們零散地把一些居民用電的這些閒置的電集中起來,然后再做儲能,再分配給各個應用或者大廠,這種方式是有可能的嗎?

王辰晟:如果是做訓練的話,這個規模不太允許它去做這樣的一些調整,因為它需要所有的data在同時進行計算,需要機櫃和機櫃之間的互聯,需要一個大的集羣。但是如果去做推理的話,它其實可以根據用户的需求去進行一個合理的配置。用現在的閒置算力或者電力去做,這個有點像以前PPTV或類似的產品。確實現在也有一些公司在用閒置的算力去做,比方説novita,它是一個start up,更多是用閒置的這些算力,相比別的供應商,提供更低成本的算力。

可是你作為一個大廠的話,你要去算一筆經濟賬,在用户需求的時候,它是不是一直有可用性,一直能去調用這些算力資源。同時如果是分散的話,它在管理、物流各方面是沒有效率的。我剛剛也提到,如果它有個大的規模集羣,又可以用來做訓練,等到不需要訓練的時候又可以用來做推理,這個經濟賬是更容易算的。

Ethan:沒錯,我也非常贊同。具體的應用是什麼,會決定對數據中心的要求是什麼樣的。舉一個例子,現在大家有一個初步的共識,就是對於AI的訓練來説,也許這樣的數據中心並不需要離大城市太近,也不需要可靠性太高,因為可靠性不高的后果無非就是影響了一下你公司內部的一些研究人員的進度。一些AI的雲廠商,如果它要提供給第三方客户的話,它需要達到所謂的「5個9」這樣的可靠性,就是99.999%的可靠性。但是對於AI的訓練來説,也許不需要達到那麼高,也許「3個9」,99.9%就可以了。

而這些AI數據中心又需要很多能源,它可以建在離能源更接近的地方。比如説OpenAI這個策略,我就覺得非常好,他們把Stargate的很大一部分項目放到了德州的西部,那是一個又有風又有光,同時還有一定的電網接入能力的地方,而且還有大量的地,這就非常適合做AI的訓練了。所以並不是所有的數據中心都需要和客户離得那麼近,在資源非常緊缺的情況下,可以根據你的應用的特點,去看你的數據中心要建在哪個地方,去實現什麼樣的目標。

02軍備競賽下的能源危機

泓君:數據中心首先需要電,其次還需要發電機,跟各種各樣的小型的我們可能想不到的設備,比如説變壓器。那還有一層,就是它需要有芯片。這三個問題怎麼解決?我們今天可以一個一個地來分析一下。首先,數據中心現在的電從哪來?Ethan,我記得你之前在我們節目上講過,整個美國的電是處在一個比較穩定的增長狀態,從今年的數據來看還是這個樣子嗎?

Ethan:我記得在上周,黃仁勛在一個CNBC的採訪中提到,他可以生產出整個市場所需要的GPU,但是現在最大問題是沒有電。

在過去的20年,美國的整個電力系統的發展是非常地緩慢的,它幾乎是以每年低於1%的增速在慢慢地擴張自己的電力系統,這和中國幾乎百分之五六七這樣的年增速,是完全沒有辦法比的。美國過去20年的經濟發展,和它的電力系統的發展,幾乎是脱鈎的。這也導致一個問題,哪怕你現在開始加倍你的增長速度,那也只是2%而已,遠遠跟不上數據中心高速增長的速度。

美國的新增電力的負載當中,我們估計,數據中心可能就會佔到40%左右,剩下的60%可能是電動車的增長,或者是生產製造業的迴流等等。

還有一個數據可以分享,一些機構預估美國每年應該需要增加大概80個吉瓦的發電量,才能夠大概地滿足美國的數據中心、電動車和生產製造業的迴流到美國這樣的一個增長的需求。但是目前來説,美國每年的發電量增長只有50~60左右這個水平,也就是説每年美國面臨的是大概20個吉瓦發電量的一個巨大的缺口。如果保持這樣的缺口的話,未來5年左右,很可能美國將會面臨一個大概100個吉瓦的發電量的缺口。當前美國的總發電量大概是在1300個吉瓦,所以這個缺口占的比重也是非常大的。

泓君:20個吉瓦是一個什麼概念?比如説一整個紐約市或者舊金山的發電量會有20個吉瓦嗎?

Ethan:這個是個很好的問題,像紐約的話,它的平均用電量大概是在6個吉瓦左右,它每年的峰值是在11~12吉瓦左右。所以説每年落下20個吉瓦,這個缺口相當於2-3個紐約的發電量的水平。

圖片來源:GE Vernova 圖片來源:GE Vernova

泓君:但現在我們説,居民用電跟工業用電都要保證,AI的數據中心也得建,因為它用户數一直在增長,所以現在缺的這部分電從哪來?或者説我們拉回到現在的這個時間點,現在對於AI來説大家缺多少電?

Ethan我們預估今年數據中心會新增大概8個吉瓦的新增的用電量。這個電從哪里來?美國過去幾十年的電網建設中有一些余量。還有GE這樣的公司也在大量地製造和出售自己的天然氣發電站。還有一些清潔能源。有一些研究機構預測,新增的這些發電可能60%靠天然氣發電站,40%左右靠光伏、風能和儲能這些來彌補。

當然我們希望未來核能儘快地成為新的主力。現在美國的發電當中,大概20%的發電來自於核能,但這些都是屬於過去幾十年一直存在的存量核能。像新增核能這一塊的話,我們可能還要等到比如説2028年左右,纔會看到新增的核能上線。像一些新的核能技術,比如説小型或者微型核反應堆,像SMR這樣的技術,我個人估計要等到2030年左右纔會真正地成為主力。

泓君:我看最近Sam Altman他投了一家公司,他們是做小型的核裂變的反應堆的,股價也是漲得很厲害。

Ethan:這家公司叫Oklo,它股價確實漲得非常瘋狂,我也沒有想到它在短短的幾個月之內就能上漲那麼快。我覺得這應該更多的是反映市場對它的期待和情緒吧,而不是它的技術或施工運營方面在突飛猛進。

圖片來源:CNBC 圖片來源:CNBC

王辰晟:我補充一點,美國一年增加五十幾吉瓦的發電量,但其中火力發電的組成其實不到5吉瓦。有差不多45吉瓦是太陽能,另外5吉瓦可能是風能,這些發電都是不可持續的,它會根據日照和天氣變化,所以它實際真的有效的發電量,可能一年就不足20-25吉瓦。我覺得這個是更加去增加這個缺口的。

再算一筆賬,我們按照數據中心的投資,老黃有一個數據就是,500億≈1吉瓦,所以它整體的話,如果真的有60吉瓦,那就是一個3萬億資本的投入。但是目前來説,所有的大公司預計明年的投入量,基本上不到1萬億,所以從整體的發電的量來説,沒有到這麼缺的狀態,電網里還有一些余量可以去使用。

Ethan:你説的很對,太陽能的1吉瓦和天然氣的1吉瓦,其實是不一樣的概念。有個概念叫做容量係數(capacity factor),你的平均發電大概是你的峰值的多少。像太陽能的話可能只有25%左右,但是如果是核電發電的話就完全不一樣,因為核能它幾乎全年一直都是在它的峰值發電,它的容量係數可以達到93%左右。天然氣也很高,可能會達到85%左右。不同的發電的技術,雖然是同樣的Gigawatt,但是它實際的發電量是不太一樣的。

王辰晟:我聽説美國的電網是相對比較脆弱的,這個Ethan能不能多介紹一下。

Ethan:美國的電力系統確實是有很大的問題的。我們一直在關注發電這個點,稍微有一點片面,因為數據中心是通過整個電力系統來獲得電的,而不只是通過一個發電機、一個電廠來獲得電的。

所以我們要看的是,從發電到輸電到配電,整個產業鏈都得形成一個有效的系統。發電大概是佔整個電力系統投資的50%左右,輸電的話大概會佔到10%-20%左右,然后配電的話大概是佔到20%-30%左右。

這個輸電網的發展在過去也是非常緩慢的。理想狀況下,如果這些電站都能進入到美國電網里邊,那麼數據中心的供電是沒有問題的,但問題就在於電網本身連吸納這些新的發電站都能力不足,再併入到新的數據中心的時候也會有很大的問題。

泓君:剛剛辰晟有一個數據,是説60個吉瓦,差不多背后是3萬億的資金支持,所以反推OpenAI的Stargate,如果説是5,000億的一個項目,它可能就能建成10個吉瓦的電,這是在規劃中嗎?如果説這個電建成了,按照Ethan你剛剛的説法,它輸入到這個電網,也是有阻力跟難度的?

Ethan:沒錯,現在我們瞭解到的Stargate,它的目標是能夠建到10個吉瓦,現在可能已經簽約和announce了大概有7個吉瓦,這些都還只是簽約和意向,真正要到電網里邊應該還會有一些阻力。對於這麼大的一個體量,很顯然Openai或者它的合作的夥伴,需要想辦法在電網上創造新的容量。現在很多科技公司,得自己去建發電機、建發電站、變電站和一些配網的設施,甚至建一些稍微短一點的電力傳輸線等等,去滿足自己的需求,因為電力公司已經完全跟不上他們的需求了。

03資源搶奪與技術破局

泓君:我們剛剛提到了輸電是一塊問題,那建電網跟發電可能就是一個更大的問題了。我注意到其實不管是OpenAI的Stargate的項目,還是馬斯克的xAI的項目,大家現在用的基本上還是燃氣渦輪機的方式。但是這一塊辰晟你可能比較瞭解,渦輪機現在的供應鏈是一個怎樣的情況?它是不是也是一個比較短缺的物品?

GE燃氣輪機 圖片來源:GE Vernova GE燃氣輪機 圖片來源:GE Vernova

王辰晟:對,因為它本身的產能完全是不足的。你可以去看GE Vernova的財報,過去10年它的增長非常平緩,峰值的時候可能是2019年、2020年的時候,大概到七十幾台一年,每一臺大概在30-50兆瓦。

我們做一個對比,渦輪的發電機其實和我們的飛機引擎非常像,一年有近4000台飛機引擎下線,而渦輪發電機市場最大佔比的GE Vernova只有不到100台。這是數量級的差別。一來是之前的需求沒有這麼旺盛,二來之前政府對於可持續能源、零碳排的這些標準,大家對會增加碳排放的行業沒這麼多的投入,它相當於是一個夕陽產業。

只是最近,在AI數據中心這樣一個缺電的背景下,大家才找到這樣一個短期止損的方案,而不是説所有的數據中心都願意去長期地使用渦輪發電機。更多的是説,如果我併入電網需要兩年的許可審批,而我需要數據中心,比方説馬斯克需要6個月就上線,那他們一年半的這個gap只能使用一些短期的方案,比方説渦輪發電機。

每個公司也不一樣,比方説xAI,根據公開的信息,它橫掃了美國將近70%以上的燃氣渦輪發電機的庫存,已經用來給孟菲斯它兩個非常大的數據中心供電。根據SemiAnalysis一個博主的分析,如果我沒有記錯的話,光Colossus-2一個數據中心,就有160台的渦輪發電機在那邊給xAI提供發電。

Ethan:我想問一個問題,是不是渦輪發電機它也是分幾種類型的?比如説像GE的,是幾百個兆瓦的這種大規模的,我聽他們財報説2028年以后才能接新的訂單了。是不是現在大家就開始買一些隱形的發電機,這一部分是不是大家也開始掃貨了?

王辰晟:對,有一種就是通過飛機引擎改造的,叫航空衍生燃氣輪機(Aero derivative combined cycle gas turbine)做小型的渦輪發電機,比方説Caterpillar。它的產能也是需要很長時間去build up的。當然了,你造十臺這樣的渦輪發電機,也只抵得上一臺300兆瓦的發電機,其實它對於供應鏈的挑戰還是很大的。

xAI孟菲斯數據中心內部 圖片來源:ServeTheHome xAI孟菲斯數據中心內部 圖片來源:ServeTheHome

泓君:剛剛説的是渦輪發電機的這部分,發電可能還會用到很多零部件。我記得之前馬斯克有一句話就是説Transformer lead transformer(AI算法的成功和算力需求,直接導致了對電力的海量需求)。第一個説的是算法,第二個transformer就是説變壓器。我知道變壓器在整個市場上它也是一個供貨周期很長,可能到18到24個月這樣一個非常缺貨的產品了,但是它又是必須存在的一個環節。

王辰晟:是的,先分享一個小故事吧。在大概一年半兩年之前,特斯拉還在做Dojo(特斯拉的超級計算機項目)的時候,我們想要在Palo Alto,硅谷的中心,去建一個非常小型的只有十幾台training的這樣一個集羣。那個時候Palo Alto市政府跟我們説你們沒有電,如果你們需要的話,現在交期已經從3個月漲到18個月了。最后我們自己買了兩臺變壓器,給Palo Alto市政府裝好,然后説我們交付給你,你們讓我用。那個時候只是3兆瓦,現在我們動輒談幾吉瓦,1000倍的差別。

變壓器這一塊,它里面需要很多特殊的鋼材——硅鋼,或者説取向型的硅鋼,因為它會帶一些磁力的方向,提高它的效率。這種鋼材美國只有一家公司可以做,它每年的產能是25萬噸,全世界大概有500萬噸的產能。中國光寶鋼一家大概有將近200萬噸的年產量。所以美國在這個產業鏈上是非常落后的。

據我所知,2016年、2020年包括2024年,美國政府都出了一些政策,無論是反傾銷也好,還是説《大而美法案》也好,都會去禁止這些美國的公司從中國來進相關的材料,爲了想要發展製造業的迴流。可是短期來説,美國的製造業並沒有能力去承接住這麼大的一個體量的需求,這也造成了過去兩年變壓器的交期一直沒有有效地去縮短。

泓君:我看到最近英偉達提了一種新的供電方式,800伏的直流輸電的方法。大家可不可以講一下,現在整個數據中心跟電廠到底是在用新的這種方式去做,還是在用傳統的這種方式去做?它的區別跟效率是怎麼樣的?

當前的Data Center電源架構 圖片來源:NVIDIA blog 當前的Data Center電源架構 圖片來源:NVIDIA blog

王辰晟:英偉達這一次OCP展會上講的800伏直流,更多的是用於數據中心以內整個AI數據機櫃的輸電。它替代的是之前的54伏機櫃。

我們先退一步來説,整個電是怎麼產生的?高壓電線如果是跨距離傳輸,是350千伏的這樣一個體量;到本地的一個變電站,大概是3.8到35千伏中壓的電;它到數據中心之內,可能通過一個不間斷的power supply(UPS)傳到數據中心里面,目前來説一般是480伏或者415伏交流電,再通過一個交流轉直流,把它轉換成54伏去給所有的芯片或者服務器去供電。

為什麼要去把54伏拉到800伏?是因為目前整個數據中心就以NVIDIA的幾代產品為例,它之前的Hopper,我們所説的H100,它的一個機櫃可能是一個30千瓦左右的數量級。最近一代GB200,它一個機櫃就到了100千瓦。它之后的Vera Rubin超級芯片,包括之后的這個卡,都是要往400千瓦甚至到1兆瓦一個機櫃去做。

NVIDIA自己有一個數據,如果你還是用54伏做櫃內的傳輸,你一個1兆瓦的機櫃就需要200公斤的銅用來做傳輸電。功率是和電壓的平方成正比的,也就是説你去增加電壓可以大大地減少效率的損失。800伏直流和54伏直流,如果是一兆瓦的機櫃,54伏可能需要在傳輸上損失22%的效率,這個損失太多了,如果拉到800伏的話,它的損失會降到0.6%,這是好幾個數量級的進步。但現在數據中心還沒有做到800伏的直流的能力,現在主要還是以415伏交流為例。

NVIDIA 800 V HVDC 架構 圖片來源:NVIDIA blog NVIDIA 800 V HVDC 架構 圖片來源:NVIDIA blog

泓君:為什麼並沒有?是進不去電網嗎?

王辰晟:是因為現在沒有按照這個標準去做。有一點很重要就是,NVIDIA老黃説他能自己造出所有的芯片,但是他沒有電去power他的芯片,所以他現在定這樣一個標準,是想要整個生態鏈共同進步。如果你還是415伏的交流、54伏的直流,它一個1吉瓦的數據中心需要差不多50萬噸的銅,這是沒有人可以提供得了的。如果是做成這樣,下一步可能就是缺銅了。所以他不得不要去促使整個產業生態鏈往這個方向做轉變。

泓君:那卡點在哪呢?

王辰晟:我覺得更多是在大家怎麼去理解它這一周剛出的規範,以及怎麼去把供應鏈拉起來去做規範的理解、設計、生產。

Ethan:是不是可以這樣理解?就是這個規範其實就是看到今天的缺電很嚴重的現實情況,要重新定義這個行業里邊的各項標準。現在剛剛發佈這個新的標準,還需要一點時間讓整個生態鏈的各個環節的企業重新設計產品,進入到這樣一個新的標準當中。下一代的數據中心就有可能會根據這個標準去建立起來,這樣的話整個數據中心的效率都會提高很多。

王辰晟:是的。

泓君:我看見現在大家雖然沒有去建800伏的直流,但是相比於你提到的54伏的直流電,已經有人開始嘗試比如説200伏、400伏,大家已經在往這個方向去靠了,只是説我們還沒有把標準一下拉得那麼高。

王辰晟:在英偉達的白皮書里面也有提到它的幾個階段,就是從415伏交流到54伏的直流轉換,也有415伏的交流直接轉成415伏或者400伏的直流去做這個機櫃;再下一步,把整個配套的基礎設施提到800伏,去內部直接做直流的這個傳輸;甚至於到最后的ultimate stage,就是用固態變壓器在數據中心的輸電入口,直接做到800伏直流,當中可以去除一些UPS以及整體的效率,把從92%~98%的效率,提到98.5%,甚至99%的end to end效率。

圖片來源: Open Compute Project 圖片來源: Open Compute Project

泓君:Ethan,是不是這種數據中心的高壓直流電跟整個居民用電方式是完全不一樣的?就是這個方式它是不可以提供給居民用電的,就限定了它只能做數據中心。

Ethan:我的理解大概確實是這樣的。但是我覺得現在確實是到了一個時機,數據中心內部應該用高壓直流來提高它的效率了。2025年在美國的數據中心所有用電量加起來,會佔整個美國用電量的大概5%左右(只比今年整個加州的用電量稍微低一點),而這個數字大概會在2030年的時候會翻倍。這是一個很大的用電行業,完全值得為這個行業設計一套專有的用電的標準,就比如説英偉達的800伏,這樣的一個標準能夠讓整個佔據美國用電10%的這個行業的效率,比如説提高20%左右,這是非常大的經濟收益。上周公佈的這個報告,就是這一切的開始。

泓君:大概給聽眾一個印象,我們用ChatGPT搜索一次會有多耗電?它差不多就是用Google搜索一次耗電量的10倍。我另外看到一個數據是説中國今年整個電力的建設有495個吉瓦,美國今年的整個電力的建設是50個吉瓦。為什麼中國可以建設得那麼快?而美國在這麼缺電的情況下,它的建設速度還是這麼慢?

Ethan:總體來説有幾個主要的原因吧。一個就是中國的電網很多時候它是有一個集中規劃的概念,這和政治制度經濟制度是息息相關的。而美國的很多電網它是小區域局部規劃,但是很少有跨區域的大規模的集中的規劃。當然美國也意識到有這個問題了,也開始做出這方面的改進,也有一些政策出來去鼓勵這樣做,但是這方面也剛剛開始。這和中國一直以來的電力從西邊送到東邊,從南方送到北方,通過高壓直流,通過整個中國大規模的電網建設來實現電力的大規模傳輸,完全不能同日而語的。

還有一方面就是在建設電網的過程中,你需要很多的審批。而在中國的話它有一個相對集中的一種管理的方式吧。而在美國的話很可能你的高壓傳輸線需要經過一個農場主,這個農場主説「不,我不允許你在這建」,那你可能就要繞道個幾百個英里。而這個過程中可能你會遇到幾百個這樣的農場主。

泓君:這就是為什麼美國高鐵建不成啊。

西電東送工程 圖片來源:中國電力 西電東送工程 圖片來源:中國電力

Ethan:對,是同樣的一個道理。所以還有一個數字可以給大家參考,在美國建一個新的長距離的傳輸線,大概需要的時間是7到12年,這是非常漫長的一個過程。所以在過去的幾年,美國幾乎沒有大規模的傳輸線建設。但這只是整個電力系統建設中的一角,其實如果你看輸電也好配電也好,整個建設都會遇到很多類似這樣的問題。

泓君:長距離傳輸線的建設主體是誰?是政府嗎?如果現在來做這件事情的人不是政府而是科技公司,因為他們其實有實打實的利潤跟業務需求上的考量,所以他們是不是在做同樣的事情的時候,推進速度會更快?

Ethan:我覺得在整個電力系統建設的某些環節,科技公司是有優勢的。但是在傳輸線進入這個環節可能跟電力公司遇到的問題是一樣的,你還是要去跟無數人去談判,這個還是非常難的。所以現在科技公司採取一個策略就是,我不去參與很多大規模的傳輸線的建設,但是我走另外一條路,比如説我自己去建我自己的發電站,而我就把這個發電站建在我自己的數據中心附近不遠的地方。很多東西是在它的經濟資源、政治資源的影響力範圍內,它可以做得更快更好的。

泓君:數據中心的建設是需要大量的水嗎?

Ethan:在建設過程中水用得並不多,在運行的過程中看你是用什麼樣的方式去製冷,有些液冷它是閉循環的,用水也不是很多。但是在數據中心運行過程中,用水量和用電量往往有一個此消彼長的關係,這也是一個矛盾的點。所以在數據中心的建設過程中,或者在選址的過程中,每個公司都會看,在這個地區是電更多一些還是水更多一些,然后根據當地的稟賦,它可能會制定一個策略。

泓君:對,現在整個科技巨頭它在建數據中心的時候,還是有遭到很多當地居民的抵制的,不管你説污染還是缺水,就是各種各種各樣的問題可能都會有。所以再回到我剛剛提的那個問題,為什麼中國建設得這麼快?Ethan,你的觀點是行政效率的問題?

Ethan:我覺得可能還有一個原因就是成本的問題。一個是設備的成本,一個是人力的成本。中國在過去的可能10年左右,在政府還有政策的推動下,整個清潔能源行業的發展是非常非常快的。一個簡單的數字可以讓大家留下深刻印象,就是中國在一年的太陽能的裝機容量相當於世界上所有其他國家加在一起的總和,甚至還更多。這也就意味着整個行業已經把清潔能源的發電成本已經壓得非常非常低了。比如説我們看到大規模的儲能等等,像美國的設備可能是中國價格的兩倍左右。所以這個成本的差異也是一個比較大的原因。

泓君:我覺得我們之前的節目聊10億美元的獨角獸就算很大了,之后我們聊大模型可能是幾百億、幾千億的這種估值,今天我們是在聊一個trillion dollars,就是萬億美元的市場,感覺我們的野心也是在慢慢變大了。

王辰晟:沒錯。

Ethan:沒錯,這個投資的規模實在是太大了。

泓君:對,我覺得這個可以説是載入人類史冊的一個投資時期。非常精彩,謝謝兩位。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。