熱門資訊> 正文
2024-11-11 18:37
中國的智能算力到底夠不夠用,需要從諸多現實情況衡量,一個確定的信息是,用好閒置算力是必須做的事
中國的智能算力夠不夠用?這是近兩年中國算力產業發展過程中的重要問題。
智能算力需要AI(人工智能)芯片。2023年,算力短缺是業界共識;2024年,算力短缺和過剩兩種矛盾的聲音同時存在。回答上述問題,首先要確定有多少市場供給。
我們通過多位供應鏈人士瞭解到,按保守計算,2024年中國市場英偉達H20系列芯片出貨量約為70萬枚,某國產主流AI芯片出貨量約為30萬枚。
一種更樂觀的預期來自國際市場調研機構SemiAnalysis,該機構今年7月預估,2024年中國市場英偉達H20系列芯片出貨量預計超過100萬枚。按一枚H20芯片價格約1.2萬美元算,它將為英偉達帶來超過120億美元收入(按美元、人民幣匯率1∶7.1計算,約合854億元人民幣)。同期,中國市場某國產主流AI芯片出貨量預計約為55萬枚。但多位供應鏈人士認為,SemiAnalysis預估出貨量偏樂觀,高於實際情況。
目前中國市場AI芯片主要來自英偉達和華為。除此之外,少數科技公司、創業公司也在自研AI芯片,部分經銷商還在通過多種渠道採購英偉達AI芯片。
也就是説,2024年中國市場先進AI芯片(可同時用於大模型訓練和推理的AI芯片。如英偉達的A100/A800、H100/H800、B100、H20等,華為昇騰910系列)出貨量在100萬枚以上。只看絕對數量,這個規模並不小。那麼,算力究竟是短缺還是過剩?
我們從多個科技雲廠商、部分電信運營商人士處瞭解到,「短期夠用,長期短缺」是他們的共同判斷。短期來看,現有智能算力能滿足基本業務需求,局部甚至存在過剩現象。但長期來看,AI應用落地需要更多算力。因此,各家採取了「適度超前投資」的策略,仍在大規模採購算力。
一位科技企業戰略規劃人士的觀點是,目前算力市場供需總體平衡,但局部不均。大型科技公司(華為、阿里、字節跳動、騰訊、百度等)、電信運營商(中國移動、中國電信、中國聯通)即使算力夠用,也會堅持超前投資。2023年跟風囤芯片的中小服務商正在降價出售閒置算力,這里出現了「局部過剩」。
誰在投資算力?
中國市場上,目前在大規模採購智能算力的主力軍是大型科技公司(華為、阿里、字節跳動、騰訊、百度等)、電信運營商(中國移動、中國電信、中國聯通)、各地方城市及央國企。
大型科技公司擁有云計算業務,需要大規模投資智能算力——也就是採購芯片和服務器,租賃土地建設數據中心。這些算力投資會在科技公司的資本支出中有所體現。
圖1:阿里、騰訊、百度資本支出(2021年一季度—2024二季度)
單位:億元 注:1.阿里自然年與財年不一致,數據已按照自然年進行調整;2.科技公司資本支出通常用於採購芯片、服務器,租賃土地建設數據中心;3.科技公司的資本支出與算力投資直接相關 資料來源|公司財報,《財經》整理 製圖|於宗文
幾個擁有云計算業務的科技公司資本支出都在快速增長。華為、字節跳動不是上市公司,未披露相關數據。2024年上半年,阿里、騰訊、百度的資本支出總和高達504.4億元,同比增長121.6%。這一增速是2018年以來的最高點,且增長趨勢短期不會改變。
阿里2025財年一季度(即2024年二季度)財報電話會中,管理層披露稱,未來幾個季度預計將繼續保持高速資本支出。今年9月的雲棲大會上,阿里集團CEO(首席執行官)、阿里雲智能董事長兼CEO吳泳銘表達了阿里繼續加碼AI算力投入的決心。他直言,阿里雲正在少有的高強度投入AI技術研發和基礎設施建設。
如果延續上半年的增長趨勢,2024年阿里、騰訊、百度資本支出總和將超過1300億元。鉅額資本支出讓大型科技公司擁有了相對充足的算力儲備。我們的綜合調研結果顯示,目前阿里、字節跳動已具備10萬卡級別的算力儲備。
圖2:阿里、騰訊、百度資本支出總和、增速(2018年一季度-2024年二季度)
單位:億元 注:1.阿里自然年與財年不一致,數據已按照自然年進行調整;2.科技公司資本支出通常用於採購芯片和服務器,租賃土地建設數據中心。這與算力投資直接相關 資料來源|公司財報,《財經》整理
中國電信運營商的算力投資不遜色於大型科技公司。尤其是2023年之后,電信運營商資本支出重點已從5G轉向算力。
中國移動、中國電信均在2023年報中披露了2024年的算力投資計劃,不過中國聯通未披露算力投資情況。中國移動、中國電信2024年財報顯示,兩者當年算力相關投資計劃分別是475億元、370億元。兩者合計845億元,同比增長13%。
圖3:電信運營商算力相關資本支出(2022年-2024年)
單位:億元 注:1.為統計方便,中國電信資本支出選取口徑為產業數字化開支;2.中國電信的算力資本支出囊括在產業數字化開支中,未單獨披露;3.中國移動、中國電信2024年的資本支出均為財報披露的計劃數據 資料來源|公司財報,《財經》整理 圖4:中國移動2024年兩大智算公開招標案
注:1.中國移動公開招標案中披露了服務器採購臺數和標包金額;2.中標方為崑崙、華鯤振宇、寶德、百信、長江、鯤泰、湘江鯤鵬、四川虹信軟件等昇騰經銷商 資料來源|公司財報,《財經》整理
中國移動、中國電信作為央國企,承擔着國產智算採購的重要任務。尤其是中國移動,為國產智算採購付出了鉅額支出。2024年中國移動公開發布的兩個國產智算採購招標標案(《2024年至2025年新型智算中心採購》《2023年-2024年新型智算中心(試驗網)採購(標包12)》)總金額為216億元,總計超過9200台昇騰AI服務器。一臺AI服務器通常會搭載4卡-8卡。這意味着中國移動的昇騰AI芯片公開招標採購規模至少在3.6萬卡-7.4萬卡之間。
今年上半年,中國移動董事長楊傑、中國電信董事長柯瑞文都曾公開表示,要建成一批萬卡級智算中心。事實上,中國移動、中國電信已建成多個萬卡智算中心,且以國產算力為主。中國移動官網顯示,該公司已在呼和浩特、哈爾濱分別建立了萬卡智算中心,呼和浩特智算中心有超過2萬卡,哈爾濱智算中心有超過1.8萬卡。中國電信已經在上海臨港智算園區投產1.5萬卡公共智能算力中心,中國電信的京津冀智能算力中心也具備超過1萬卡。
各地方城市及央國企也是重要的算力投資方。其投資形式通常是,政府牽頭設立專項資金,地方央國企發佈招投標公告,再由第三方企業參與建設智算中心。
中國信通院一份截至今年5月的研究數據顯示,中國建設和規劃中的智算中心共有185座,總算力為272 EFLOPS(算力單位,EFLOPS是ExaFLOPS縮寫,指每秒能執行10的18次方次浮點運算),建成運營的有104 EFLOPS。其中全國智算中心以雲服務形式對外提供的比例是23%。
我們不完全統計發現,截至2024年10月16日,今年以來各地方城市上馬的智算中心招投標項目至少在30個以上,涉及金額總和至少超過275億元。
注:1.統計時間為2024年1月-2024年10月16日,以上為不完全統計;2.投資金額包含服務器採購、智算中心建設等軟硬件及土建投入 資料來源|公司財報,《財經》整理
相比2023年,大型科技公司、電信運營商、各地方城市和央國企在2024年算力投資熱度只增不減。英偉達中國市場收入也可以側面反映這一趨勢。2024年上半年英偉達在中國市場營收61.6億美元(按美元、人民幣匯率1∶7.1計算,約合437億元人民幣),比去年同期增長了42.3%。
這還是美國商務部工業安全局2023年10月出台「出口管制規則」后的結果。當時,美國向中國斷供了英偉達的A100/A800、H100/H800等高性能AI芯片。為遵循管制規則,英偉達后續向中國推出了「閹割版」的H20芯片。該芯片帶寬、性能均有縮水,單卡理論性能僅為H100的20%左右。
「出口管制規則」雖然存在,但英偉達並未放棄中國市場的巨大需求,而是通過合規方式向中國市場銷售了更多「閹割版」AI芯片。英偉達在中國市場收入還在增長。多位供應鏈人士對我們表示,2024年英偉達H20系列芯片在中國市場出貨量約為70萬枚。
短期夠用,長期短缺
算力投資不斷增長。那麼2024年,中國的智能算力究竟是短缺還是過剩?「短期夠用,長期短缺」是主流判斷。
AI芯片用途主要分成兩部分:模型訓練、應用推理。簡單理解,前者是訓練AI,后者是使用AI。它的需求結構正在變化。國際市場調研機構IDC在2023年曾預測,中國智能算力年複合增速33.9%。2022年-2027年,智能算力內部,訓練算力佔比會下滑到27.4%,推理算力佔比將上升到72.6%。
2023年出現了算力短缺現象,成因是大模型的興起,「百模大戰」導致訓練算力需求激增。美國商務部的「出口管制條例」又限制了算力供應,各個企業「恐慌式」搶購加劇了算力的供不應求。一位頭部科技公司戰略規劃人士今年8月對我們提到,他所在企業2023年曾以高於英偉達官方定價1.5倍-2倍的價格「掃貨」,搶購市面上存在的A100/A800、H100/H800芯片,其中甚至包括部分中小經銷商囤積的散貨。
2024年,算力逐漸夠用了,各家算力越囤越多,模型訓練需求卻在放緩,應用推理需求尚處爆發前夜。此時出現了一個青黃不接的「空檔期」。部分科技公司技術人士的判斷是,這個「空檔期」可能會持續到2025年上半年,但總體不會太長。
目前,阿里、字節跳動、百度等國內科技公司的旗艦模型都已接近AI創業公司OpenAI旗下大模型GPT-4的性能。GPT-4系列之后的下一代模型尚未真正出現,追趕GPT-4的任務告一段落。因此,國內各大科技公司暫時放緩了模型訓練的步伐。一位科技公司雲廠商高管今年9月對我們表示,他所在雲平臺的訓練算力需求增長平緩,推理算力甚至需求已超過訓練算力需求。
決定「空檔期」有多長的因素有兩點:其一,下一代模型訓練的競賽何時開啟;其二,推理算力增速有多快——這是AI應用普及滲透速度決定的。
過去兩年,「堆算力」是模型性能提升的主要路徑。因為大模型的性能提升遵循着Scaling Law(AI創業公司OpenAI在2020年提出的定律,直譯為「縮放定律」)——模型性能主要與計算量、模型參數量和訓練數據量三者大小相關。
英偉達還在為下一代模型提供更強性能的AI芯片,如B100系列。今年8月,英偉達管理層在2024年二季度財報電話會中表示,下一代基礎大模型將需要10倍-20倍的計算能力來訓練更多數據。
圖5:英偉達全球各地區營收規模(2022年一季度-2024年二季度)
單位:美元 注:1.英偉達自然年與財年不一致,數據已按照自然年進行調整;2.為方便統計,圖表中把英偉達中國大陸地區、中國臺灣地區、美國以外的收入合計爲「其他」;3.英偉達財報統計中的中國大陸地區的收入包含了中國香港 資料來源|公司財報,《財經》整理
今年9月,多位雲廠商人士對我們表示,2023年1萬枚AI芯片是訓練基礎大模型的入場券。2024年以后,訓練下一代基礎大模型有朝着10萬枚AI芯片演進的趨勢,但目前國際市場尚無成功案例。2025年-2026年,如果下一代基礎大模型出現,國內廠商追趕它所需要的訓練算力也會指數級增長。
讓很多從業者做出智能算力「長期短缺」這一判斷的主要原因是,隨着AI應用逐漸滲透,推理算力需求逐步增長是個確定趨勢。
圖6:IDC中國智能算力規模及預測(2020年-2027年)
單位:EFLOPS(算力單位,每秒浮點運算次數) 注:1.FP64(雙精度)、FP16(半精度)均為算力的計算方式;2.智能算力、通用算力的EFLOPS規模無法直接對比;3.2027年為預測數據 資料來源|國際市場調研機構IDC2023年12月
目前,訓練算力仍佔據主流。訓練算力和推理算力的總佔比為6∶4。今年8月,英偉達管理層在2024年二季度財報電話會中表示,過去四個季度中,推理算力佔英偉達數據中心收入約為40%。但在未來,推理算力的收入將持續提升。
今年下半年,推理算力的爆發式增長已初見端倪。Token是AI推理算力的計量單位,就像電力用「度」計費、流量用「G」計費。一個Token可以是單詞、標點、數字、符號等。百度財報披露,旗下文心大模型日均Token消耗量從今年5月的2500億增長3倍到今年8月的1萬億。字節跳動近期公佈,旗下豆包大模型日均Token消耗量從今年5月的1200億增長10倍到了今年9月的1.3萬億。
圖7:百度、字節跳動旗下大模型日均Token消耗量
單位:億/日均 注:1.百度數據來自百度財報披露;2.字節跳動數據來自字節跳動發佈會披露 資料來源|公司財報、發佈會披露,《財經》整理
今年9月字節跳動火山引擎智能算法負責人吳迪對我們表示,字節跳動綜合考慮算力資源儲備、市場未來用量、模型成本下降等因素判斷,2027年豆包每天Token消耗量會超過100萬億,將是現在的100倍以上。
隨着AI應用滲透率不斷提升,推理算力消耗量還會持續提升。按照IDC預測結果,2027年推理算力在智能算力大盤中的佔比甚至會超過70%。
「算力長期短缺」判斷的另一個潛在考量是:美國對中國的先進AI芯片出口管制短期不會取消,管制範圍甚至隨時可能會擴大。
一位華為人士今年9月對我們表示,英偉達H20芯片目前雖然仍對中國銷售,但要做好最壞的思想準備。因為供應鏈隨時可能會被切斷。華為昇騰910系列芯片目前使用的高帶寬內存(HBM)來自韓國企業SK海力士。目前,國內缺少能用好用的HBM替代品。極端情況下,如果SK海力士的HBM供應鏈條被切斷,昇騰910的產能也會受到影響。
AI芯片是易耗品,英偉達AI芯片的折舊年限一般是三年。也就是説,囤積的AI芯片如果無法得到持續補充,迟早會有耗盡的一天。基於上述考慮,中國企業需要未雨綢繆——這也是主要的大型科技公司仍然堅持「適度超前投資」策略的核心原因。
用好閒置算力
不可忽視的情況是,中國市場部分算力供應商出現了智能算力閒置。我們瞭解到,電信運營商、部分地方智算中心存在閒置的算力。
有科技公司戰略規劃人士對我們表示,局部的算力閒置,不能等同於「算力過剩」。很多企業採取了「適度超前投資」策略,因此智能算力少量閒置是正常的。國產AI芯片的閒置情況更特殊。因為國產AI芯片目前只做到了「能用」,離「好用」還有一段距離。盲目使用只會造成算力浪費。企業需要通過各種技術手段做適配,最大程度提升國產AI芯片的使用效率。
如何用好現有的智能算力?在硬件受限的情況下,可以通過軟件手段壓榨出AI芯片的算力效率。使用雲服務形式向社會提供算力,在訓練、推理環節提高AI芯片利用率,這都可以有效提升算力效率。
中國信通院截至今年5月的研究數據顯示,中國建設和規劃中的智算中心共有185座,全國智算中心以雲服務形式對外提供的比例是23%。我們瞭解到,公共雲合理利用率為40%-60%,政務雲合理利用率區間為25%-40%,但私有化算力資源使用率一般不超過5%。提高雲服務的算力輸出比例,可以有效提升智能算力使用效率。阿里雲、華為雲已向多個政策部門提出了這一建議。
模型訓練通常由千卡、萬卡集羣完成。單卡故障會影響集羣運作。集羣越大、芯片越多,故障率就越高。百度系統架構師、百度智能雲AI計算部負責人王雁鵬今年9月在一場小規模活動中提到,有效AI算力=單卡算力有效率×並行計算有效率×有效訓練時間。極端情況下,模型訓練會浪費50%的算力資源。他建議,企業可以在自有數據中心部署百度百舸計算平臺等調度工具提高訓練算力使用效率。
應用推理是未來的算力消耗大頭,優化模型結構同樣能節省算力。一位雲廠商大模型業務核心負責人今年8月對我們表示,核心原則是在OpenAI提出的Scaling Law原則下提升數據質量、數量,適當降低模型參數,還可以採用MoE(通過混合多個專業模型,獲得更好性能)架構提升模型性能、降低推理成本。這兩種策略都是在保證模型效果的前提下,減少算力消耗。
走過2023年的智能算力短缺后,2024年中國智能算力正處於「短期夠用,長期短缺」的狀態。下一階段,算力供需關係仍將劇變,可以採取適度超前投資、提高算力效率的策略應對市場變化。