熱門資訊> 正文
2026-05-11 20:59
誰在驅動這波前所未有的算力需求熱潮?答案可以簡單地歸結為Token調用量的指數級爆炸。
根據OpenRouter的最新測算,截至2026年4月初,全球AI大模型詞元總調用量已達27萬億,環比增長18.9%,而中國AI大模型詞元調用量已連續五周超越美國。越多的Token消耗,就意味着越多的服務器在工作,越多的GPU在發熱,越多的電力在燃燒——而這些「越多」的背后,就是算力租賃這門生意最底層的增長邏輯。
「以租代買」的觀念正在大量中小企業中迅速普及。單張NVIDIA A100顯卡售價約10萬至15萬元,H100更高達20萬至30萬元,對於一家初創公司而言,僅硬件採購成本就足以將其壓垮。而通過租賃,企業可以大幅降低70%以上的初期投入,還能根據需求隨時更換最新一代的硬件設備。在中國的一些電腦設備租賃企業,高性能機型甚至出現了「上架即秒光」的火爆行情。這一現象證明,算力租賃的核心價值已經不再僅僅是「省錢」,而是提供了一條讓中小企業能夠以更低成本、更低風險跟緊技術迭代步伐的可行路徑。
如果説旺盛的需求描繪了算力租賃的廣闊前景,那麼近期接連爆出的幾筆交易,則直接告訴市場:這個賽道的水遠比想象中更深,參與者也遠比想象中更多元、更重量級。
5月4日,字節跳動旗下的AI應用豆包在App Store新增付費版本服務聲明,在免費版的基礎上推出了三檔增值服務:標準版連續包月68元/月、加強版連續包月200元/月、專業版連續包月500元/月。付費功能主要聚焦於PPT生成、數據分析、影視製作等高複雜度生產力場景。
豆包為什麼在這時候選擇收費?三個關鍵數字足以説明問題:豆包的日均Token消耗量已達120萬億,相比2024年5月首次發佈時增長了1000倍,僅在2026年頭三個月就翻了一番;字節跳動2026年規劃的約1600億元資本開支中,預計有一半將投向AI芯片採購;而據業內測算,推理算力需求已經是訓練階段的10-15倍。也就是説,付費用户越多、使用頻率越高、任務越複雜,算力消耗就越快——而這套邏輯閉環的終端傳導效應,就是算力租賃廠商接單到手軟。
如果説豆包付費體現的是AI用户和商業化的需求倒逼,那Anthropic跟SpaceX這筆算力租賃大單,就實打實體現了算力供給格局正在重新洗牌。5月6日,AI獨角獸Anthropic官宣正式租下了SpaceX旗下位於美國田納西州孟菲斯的Colossus 1數據中心的全部算力。
這是一個什麼概念?Colossus 1配備了超過22萬塊英偉達GPU,涵蓋H100、H200乃至下一代GB200加速器,總功耗達到300兆瓦——相當於一個約20萬至30萬戶家庭的中型城市的全部居民用電。該數據中心從規劃到建成僅用了122天,充分體現了SpaceX在工程建設和芯片採購上的驚人統籌能力。對Anthropic而言,這筆協議意味着在短短一個月內即可獲得超過300兆瓦的新增算力,使其總算力水平從不足10萬張H100當量一舉追平甚至超越OpenAI、Google DeepMind等主要競爭對手。對SpaceX而言,這更是一石多鳥的精妙商業佈局:原本為xAI訓練Grok而建的Colossus 1在xAI解散併入SpaceX並更名為SpaceXAI后處於閒置狀態,租給Anthropic后不僅實現了閒置頂級算力的直接變現,還為即將到來的IPO貢獻了一個極具説服力的現金流故事。兩家公司甚至已經在探討合作開發「數吉瓦級的軌道AI算力」,將數據中心部署至近地軌道的工程化步伐正在加速。
值得注意的是,Anthropic並非只在SpaceX這一棵樹上「租算力」。就在此前的一個月,Anthropic已分別與亞馬遜和谷歌/博通簽訂了總計約5吉瓦的算力供應協議,據估算僅與谷歌的5吉瓦協議就相當於在5年內投資近2000億美元。再疊加此前與微軟Azure簽訂的300億美元算力合同,Anthropic在算力承諾上的總規模已達數千億美元。鉅額的數字背后,揭示了一個現實:頂尖AI模型的競爭不僅是一場算法和數據的競賽,更是一場純粹的算力消耗戰。而在這場消耗戰中,最有實力的並不是模型廠商本身,而是那些手握海量GPU資源、具備超強供應鏈整合能力的「算力王者」。
將視角拉回國內,算力租賃市場的玩家版圖同樣在迅速成型。核心玩家大致可分為三類典型路徑:第一類是深度綁定核心客户的IDC/AIDC廠商,如光環新網、潤澤科技、奧飛數據等,憑藉節點儲備和擴張能力站穩腳跟;第二類是具備全球調度、納管與自建結合能力的雲服務商,阿里、百度、騰訊等均已宣佈AI算力產品多輪提價,漲幅在5%至34%之間;第三類則是擁有差異化資源整合能力、正處於業績加速兑現階段的算力租賃及跨界轉型標的,協創數據就是一例——2026年第一季度實現歸母淨利潤7.5億元,同比增長343%;利通電子同期實現歸母淨利潤2.7億元,同比增長821%;東陽光則在2026年5月5日公告,其控股子公司簽署的算力服務採購框架合同訂單總金額達到160億至190億元。而放眼海外,新興雲廠商CoreWeave的資本開支計劃從103億美元跳升至300億至350億美元,在手訂單規模已逼近960億美元;甲骨文與OpenAI達成的4.5GW算力租賃協議,更將其2026年資本開支直接上調至500億美元以上。
算力租賃之所以從「邊緣生意」迅速躍升爲「核心資產」,關鍵在於其商業邏輯本身發生了根本性的代際進化。五年前,這類生意還接近於簡單的「服務器轉租」——平臺採購一批GPU,掛在網上按小時計價,客户按需使用,更像一個自動售貨機式的標準商品交易。然而今天,這個行業正在經歷一場深刻的模式躍遷。
一個最直觀的變化來自價格端。據行業監測數據顯示,H100 GPU的一年期租賃合同價格從2025年10月每卡每小時1.70美元的低點,急升至2026年3月的2.35美元,漲幅接近40%。與此同時,英偉達H200、H100等高端GPU的租金環比普遍上漲15%至30%——H200時租金達7.5元至8.0元/卡時,月租金6萬至6.6萬元,漲幅25%至30%;H100月租漲至5.5萬至6.0萬元,漲幅15%至20%。更説明問題的是,交付周期已經大幅延長至2027年第二季度(H200)和第一季度(H100),這種時間軸的拉長本身就是市場緊張程度最真實的信號。
價格上漲的背后,是一個更根本的需求結構轉換——算力租賃正在從「賣算力」轉向「賣Token」。這是一個看似簡單、實則影響深遠的轉變。過去,用户購買的是GPU的「運行時間」,企業按小時付費,實際使用率完全取決於用户自身。而如今,隨着AI應用全面進入推理驅動階段,大量開發者、企業和個人在調用大模型時,實質上是在「消費Token」——每一次API調用、每一次智能體交互、每一次複雜任務推理,都會消耗規模浩大的Token量。需求方不再關心自己用了多少小時的GPU,只關心模型能生成多少Token、完成多少任務。相應地,算力租賃廠商的服務交付方式也開始從「裸算力出租」升級為「模型服務即算力」乃至「Token分成模式」。
然而,商業邏輯的光鮮面背后,也隱藏着不容忽視的隱憂。有人用當前每小時2.35美元的H100租金屬性和樂觀的100%出租率假設倒推出「4個月回本」的神話,這種計算對於初創型和邊緣型玩家來説往往暗藏陷阱。業內人士指出,更真實的賬本是:GPU資產大約在2.5年內完全收回成本。2.5年回本,放在重資產行業里已然相當可觀,但前提是——你拿得到當下最緊缺的高端GPU採購訂單,你的數據中心有足夠的電力容量和冷卻能力,你的客户關係不是一次性交易而是3至5年的長期鎖定期合同。在全球四大科技公司(Meta、Alphabet、微軟、亞馬遜)2026年合計7250億美元AI資本支出的大背景下,中小型算力租賃參與者在供應鏈博弈中天然處於劣勢。可以預見的是,算力租賃賽道的資源和訂單將進一步向少數頭部玩家集中,「贏家通吃」的格局輪廓正在悄然浮現。
如果説前三個部分討論的是算力租賃的「現在」,那麼真正決定這個行業未來走向的,則是三個更深層、更長遠的結構性問題。
第一個問題是技術代際競賽的加速。英偉達正以驚人的節奏更新其產品路線圖:Blackwell平臺之后,Vera Rubin平臺已承諾在今年下半年出貨,性能功耗比將達前代產品的10倍;Rubin Ultra預計2027年問世,Feynman計劃於2028年推出。每一代GPU的算力躍升都意味着舊代服務器的賬面價值可能快速縮水,這對於投入數千億購置固定資產的算力租賃企業而言,意味着折舊風險和資產減值風險不可忽視。但也恰恰因此,租賃模式體現出了更強的商業韌性——唯有通過大批量、快速迭代的集群運營,才能將硬件更新的成本平滑分散到大量客户身上,將技術迭代的負面衝擊轉化為靈活性和規模優勢。梅賽德斯-奔馳的F1車隊不會因為明年要換新引擎就不參加今年的錦標賽;同樣的邏輯,AI企業不會因為明年的算力硬件更強就不租用今天已有的GPU。在技術不斷加速的情況下,算力租賃不虧反賺——租户無需擔心資產貶值,出租方則可以靠規模效應消化迭代成本。
第二個問題是「算力鴻溝」與國產化的博弈。一個頗具黑色幽默意味的現實正在中國部分智算中心上演:安裝了英偉達GPU的機櫃出租率超過90%,國產GPU服務器的出租率卻很低。核心瓶頸不是硬件本身——而是軟件生態。CUDA沉澱了十數年的開發者工具鏈和生態優勢,國產GPU在框架適配、編譯優化上仍有明顯差距。華泰證券判斷2026年是「國產超節點元年」,試圖通過超節點架構的系統級重構彌補單芯片差距,降低通信開銷以將理論算力轉化為可用吞吐。但這條路註定需要時間,算力租賃行業在享受大模型需求爆發的紅利的同時,也必須面對「缺芯少魂」的結構性煩惱。工信部已經印發了《關於開展普惠算力賦能中小企業發展專項行動的通知》,圍繞「算力銀行」「算力超市」等創新業務作出部署,支持中小企業存入閒置算力資源。這一政策導向旨在打破算力的重資產壁壘,但如果基礎算力底座仍然以海外高端芯片為主,那麼所謂的「普惠算力」在深層供給上仍將受制於外部供應鏈的不確定性。
第三個問題是算力租賃與實體產業AI轉型之間的協同。當前的市場熱潮主要由互聯網大模型企業的需求推動,Token的指數級增長也多集中在雲端應用和智能體賽道。但真正的算力大航海時代遠遠沒有到來——如果智能製造、醫療影像、自動駕駛、數字孿生等實體行業真正全面擁抱AI,屆時算力需求的井噴量級將再翻數倍。在此背景下,算力租賃行業面臨一個選擇:是繼續沿襲當前追逐頭部大客户的流量路徑,僅在互聯網大廠之間做算力的「軍火商」;還是主動下沉,與各行業深度合作,讓算力真正成為國民經濟的公共基礎設施。二者的結果將大不相同。前者是「賺快錢」,后者是「賺大錢」——但賺大錢的路徑需要耐心、產業認知和跨領域的協同能力。
AI的免費時代正在加速終結,而算力作為AI世界里最剛需、最稀缺的生產資料,它的「租賃者」正在成為這場產業浪潮中確定性最強的受益者。不是所有人都能從大模型的算法突破中分一杯羹,也不是每家公司都燒得起千億美元級的自建算力集群,但幾乎每一家想要落地AI應用的企業,都繞不開「按月付費、按Token計費、按需擴容」的算力租賃路徑。當AI付費潮從C端應用向B端基礎設施層層傳導,算力租賃便不再是某個細分賽道的邊緣生意,而是整個AI產業商業閉環中不可或缺的「水電煤」。
本文來自微信公眾號 「半導體產業縱橫」(ID:ICViews),作者:方圓,36氪經授權發佈。