熱門資訊> 正文
2025-07-15 19:31
智通財經APP獲悉,為OpenAI、微軟以及谷歌等AI應用巨頭們提供強大AI算力資源的「雲端算力租賃」領軍者CoreWeave(CRWV.US)表示,隨着該公司在美國各地擴大AI算力基礎設施容量,計劃投資高達60億美元在賓夕法尼亞州蘭開斯特建立一座大型AI數據中心。
CoreWeave此舉公佈之際恰逢「AI芯片霸主」英偉達(NVDA.US)恢復H20 AI GPU在中國市場的銷售,以及Facebook母公司Meta(META.US)計劃投資數千億美元來建設多座超大型AI數據中心,用於支持其人工智能技術更新迭代,目標是實現通用人工智能(即AGI),其中首個數據中心預計將於明年投入使用,以及全球雲計算巨頭亞馬遜AWS宣佈與韓國的SK 集團達成了一項擴大化的合作協議,根據該協議,AWS將在韓國建設一個高達100兆瓦(MW)規模的韓國最大規模數據中心。
「AI信仰」震撼全世界
全球持續井噴式擴張的AI算力需求,加之這些科技巨頭們不斷斥巨資投入建設大型數據中心,意味着對於長期鍾情於英偉達以及AI算力產業鏈的投資者們來説,席捲全球的「AI信仰」對於算力領軍者們的股價「超級催化」遠未完結,「AI總龍頭」英偉達的市值衝5萬億美元市值之路正式揚帆啟航,在一家華爾街投資機構看來甚至有望衝擊6萬億美元。
CoreWeave首席執行官邁克爾·因特拉託(Michael Intrator)在最新採訪中表示,CoreWeave 預計初期將開發100兆瓦的算力資源容量,並可能在未來一段時間擴至300兆瓦容量。因特拉託將於周二在匹茲堡與美國總統唐納德·特朗普共同出席的一場首席執行官圓桌會議上正式宣佈這些數據中心項目。該設施將於建設期間在當地創造600個高薪工作崗位,正式投入運營后提供175個長期職位。
因特拉託表示,計劃在數據中心配置未來數年將推出的下一代性能更加強大的英偉達AI GPU以及英偉達 NVL AI服務器機架,以便從大西洋中部各州訓練和運營所需AI算力資源無比龐大的「全球最大規模的AI大模型」。據悉,有着「英偉達親兒子」稱號的CoreWeave已經成為首批部署英偉達Blackwell Ultra 架構GB300 NVL72 AI服務器系統的AI算力提供商。
CoreWeave 上周同意以大約90億美元收購數據中心運營商Core Scientific Inc.,該公司正在擴大其主要位於美國的高性能站點網絡,以滿足大型雲服務提供商們和AI大模型開發者們租賃最新AI算力設備的愈發強勁需求。
「我們看到對於更大規模算力資源部署的持續需求,」因特拉託表示。「三年前還是10兆瓦基礎設施,然后變成100兆瓦。如今的討論已逐漸指向吉瓦級別。」一座吉瓦級的電力系統設施可為大約75萬戶美國家庭供電。
首批100兆瓦數據中心預計將於2026年向客户們開放,因特拉託預計該算力工廠的產能「將備受需求端追捧」。CoreWeave 將成為蘭開斯特大型站點的承租方,該站點由 Chirisa Technology Parks以及Machine Investment Group 共同開發。
得益於市場對AI算力需求的愈發樂觀預期,CoreWeave已成為華爾街寵兒。自3月登陸美股上市以來,該公司股價已漲逾三倍,周一收於 132.37 美元。周二盤前交易中,在該公司加碼佈局AI數據中心的消息,以及市場對於AI算力需求愈發強勁的預期推動下,股價一度上漲超9%。
有着「英偉達親兒子」稱號的AI雲算力租賃巨頭CoreWeave
CoreWeave 的計劃屬於特朗普周二宣佈的約700億美元AI與能源總投資的一部分,這是他推動美國加速發展人工智能技術的最新舉措。今年早些時候,軟銀集團(SoftBank Group Corp.)、OpenAI以及雲計算領軍者甲骨文公司(Oracle Corp.)聯合宣佈在白宮投資1000億美元的「星際之門」項目,大舉興建超大規模AI數據中心。
作為數據中心領域英偉達圖形處理器(即GPU)的最早期採用者,CoreWeave憑藉搶跑數據中心AI算力資源需求浪潮,喜獲英偉達的風投部門青睞,甚至能夠優先獲得需求極度旺盛的英偉達H100/H200以及Blackwell系列AI GPU,曾迫使微軟等雲服務巨頭向CoreWeave租賃算力資源,喜提「英偉達親兒子」這一稱號。
早在2023年8月,CoreWeave成為首家部署NVIDIA H200 Tensor Core GPU的雲計算服務公司,這是一款高性能的AI GPU,這使得它能夠為客户們提供無比強大的計算能力。在AI浪潮推動下,尤其是2023年,依靠大量採購高端NVIDIA AI GPU(比如H100/H200)及與英偉達在CUDA軟硬件協同生態系統的全面合作,CoreWeave在雲端AI GPU算力市場的知名度迅速提升。
CoreWeave AI雲算力租賃服務最突出的特點是專注大批量提供最高端AI GPU(尤其是NVIDIA GPU)集羣,讓用户們可以在雲端按需獲取高性能 AI GPU算力資源——即雲端AI算力資源,用於機器學習、深度學習以及推理等AI工作負載。CoreWeave支持大規模的彈性部署,用户們可以根據項目需求快速增減AI GPU數量,適合AI模型訓練(如大語言模型、計算機視覺體系等)以及需要實時處理的龐大推理工作負載。除AI外,CoreWeave的NVIDIA AI GPU資源也可用於傳統的HPC場景(科學計算、分子模擬、金融風險分析等)。