繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

慶祝「AI雲第一」,字節阿里分蛋糕

2025-10-09 18:46

文|鄧詠儀

編輯|蘇建勛

封面來源|36氪拍攝

9月末,杭州,阿里與字節在「AI雲市場」排位的激烈競爭,讓火藥味蔓延在整個城市。

正值阿里雲年度活動「雲棲大會」舉行,不少來參與的觀眾都能看到,在杭州蕭山機場、杭州東站等重要交通樞紐,火山引擎打出大幅廣告,當中強調市佔率數字:「佔中國公有云大模型市場份額46.4%」。

這一表述很值得玩味。火山引擎雖未使用任何「最」、「第一」的極端形容,但衆所周知,國內排得上號的雲廠商有10家左右,火山引擎一人獨佔近半份額——相當於什麼沒説,又什麼都說了。

來源:36氪拍攝

有云行業人士對該廣告表示了疑問:火山這個數字是按照MaaS形態統計的,主要是閉源形態,如果是購買了雲廠商IaaS和PaaS部署開源社區下載的模型,就不在這個統計範圍內,單純從MaaS形態模型消耗判斷競爭格局,不夠有全局性。

其實,不止火山引擎,如今各家都能成為「AI雲市場第一」。

在不同的廣告、市場機構報告中,阿里、字節、百度都在官宣「第一」,只不過表述方式各有側重,場面甚為劍拔弩張。

製圖:智能涌現

誰纔是中國AI雲第一?這成為9月雲廠商、AI公司們的最火話題。

有人建廚房,有人送外賣

首先,要明確的一個事實是:模型廠商的這些AI雲第一,都沒錯。問題核心不在於數據真假,而在於對「AI雲市場」這塊蛋糕的切分方式不一,即統計口徑不同。

那麼,各家都是在哪個維度上「贏了」?

我們來具體進行拆解:

  • 字節火山引擎是大模型公有云市場調用量(MaaS)的第一,是指其公有云平臺上所有大模型的調用總量。火山上除了字節的豆包模型(不含豆包、抖音等內部業務調用),還有大量的第三方模型,只要在它的雲上被調用的Token,都算作它的市場份額。

  • 阿里雲的AI雲,是包含基礎設施(如GPU)、到PaaS(平臺),再到上層的MaaS(模型調用)的全鏈路服務,所產生的總營收規模;

  • 百度所呈現的是「AI公有云服務市場第一」,這會包含更多做產品、行業定製服務的收入。百度還曾經披露過更細分的指標,比如「2025上半年大模型中標項目數量和金額雙第一」。

  • 還有大模型廠商智譜,在GLM-4.5發佈之后,宣佈以openrouter為統計口徑,其模型調用收入是其他所有國產模型之和。

選擇哪個計算口徑,無可厚非。這是因為雲計算已經是個成熟的生意,產品模塊眾多,採購和服務方式也非常多元。

舉個例子,一箇中小企業,可能直接在雲廠商按月租用一個虛擬服務器;而個人開發者,很多時候不需要長期租用服務器,直接註冊一個api,按需取用。當有用户開始使用AI應用時,纔會請求雲廠幫忙處理業務需求。

到了大模型,道理也是同樣。從個人、中小企業到大企業,對大模型的需求也不盡相同。

打個比方,火山強調的「大模型調用量」,就像是一家體系化、規模化的連鎖店,只提供外賣服務,交付的是一道菜(模型推理結果)。

直白點説,火山認為客户不需要關心后廚如何搭建,比如買的是不是字節的豆包模型、芯片、推理框架,都無所謂——只要最終上菜夠快、質量夠好就行了。

所以你會看到,火山引擎在不少公開表達中,都在強調自家模型的「快」。

8月,DeepSeek更新V3.1版本后,火山強調的就是20-40ms的吐字間隔(TPOT),以及500萬的初始併發TPM(Tokens per Minute),后者當時拉到了業界的最高水平。

TPM,指每分鍾可以處理的token數量,是衡量模型服務能力的重要指標。放在一箇中度使用場景(如文檔總結、代碼生成),假設每個用户每分鍾消耗500token,500萬的TPM,就意味着可以服務1萬用户。

這是一種更偏流量邏輯的打法,起量快。換句話説,也更適合擁有彈性業務需求的互聯網AI應用,中小開發者等等的業務需求。

阿里和百度所強調的AI雲市場,更多核算的是營收。

比如,阿里雲所定義的AI雲,統計範圍涵蓋了從底層的IaaS(基礎設施,如GPU算力)、PaaS(平臺),再到上層的MaaS(模型即服務)完整體系,所產生的營收數字。

這就好比一個功能齊全的廚房。客户不僅可以擁有廚房里的高級廚具(底層算力),也能直接點菜(模型服務),能做的事情更多了。

為什麼要選擇全棧自研路線?

單純賣模型服務,很難形成長期壁壘。一位從事大模型推理服務的工程師對《智能涌現》打了個比方:「比如一個人每周都要去超市(全棧雲服務)購物,當他要買一個杯子(API)的時候,除非其他地方的杯子有出衆之處,否則,如果在超市有,他大概率會在這個超市順手買了。」

無論是雲還是大模型,真正的粘性來自於整體解決方案和數據綁定,大部分客户最后用的,肯定不會只有純模型推理服務,比如API,很容易就遷走。

「大多是要用API,再加數據庫、虛擬機等完整的產品組合。」上述人士稱。

差異化時代來臨

需要承認的另一個事實是,如今大模型領域看着熱鬧,增長迅速,但本質上整體盤子還很小。

2024年5月,火山用降價徹底打開了MaaS服務市場。當時,火山將豆包旗艦模型Pro-32k降至0.0008元/千Tokens,降幅達99.3%。

這直接引爆了行業價格戰,阿里、騰訊、百度等廠商紛紛跟進降價。結果是,火山引擎的調用量,從降價前的1200億Tokens,暴漲到超過5000億Tokens。

2025年上半年,IDC統計稱,全國大模型調用量的在536.7萬億Tokens。如果按豆包Pro 128k去年剛降價定價(0.0005元/千Tokens)粗略計算,2025年全年的MaaS市場總盤子,約為5-6億元。

相較之下,單是阿里雲2024年全年營收,就已經超過800多億元,和傳統意義上的雲計算市場相比,如今的MaaS市場不可同日而語。

問題在於,各家廠商現階段更信什麼,更願意優先投入什麼,這導致了不同的市場策略。

雲計算是個規模化生意,馬太效應顯著。阿里雲依託傳統雲服務的優勢,天然傾向於提供全棧解決方案,增加模型服務吸引客户。

而火山引擎作為新進入者,搶固有的雲計算市場(如CPU)是更困難的,纔會專注於在未來的GPU和MaaS(模型推理服務)增長。

5月的公開報道中,火山引擎CEO譚待,就表示「馬拉松剛跑了500米」,未來市場空間最少會擴大100倍——比如,根據火山引擎最近公佈的數據,豆包大模型日均tokens使用量超過16.4萬億,較去年5月首次發佈時,已經增長137倍。

到底誰纔是AI市場的第一名?現在並沒有統一的標準。

在雲棲大會上,阿里雲就直接回應了對統計口徑的看法:如果只看大模型在公有云上的調用量,就像只看到了冰山一角。

之所以這麼説,是因為大量客户並沒有在公有云上直接調用模型。阿里雲的通義大模型家族走的是開源路線,很多企業會直接把模型下載下來,部署在自己公司的私有云或本地服務器上運行。

這部分客户自己部署使用的調用量非常大,但外部的數據報告根本統計不到。

阿里雲衡量的,是整個「AI雲」業務的總收入。這個範圍很廣,包括了出租GPU算力(基礎設施)、提供平臺服務(PaaS)以及模型調用服務(MaaS)等所有相關收入。按照這個「營收總額」的維度,阿里雲是第一。

爲了證明自家的大模型影響力更強,其實還有很多細分維度可挖。

在雲棲大會會后採訪中,阿里雲還提出,應該區分廠商賣的是自己研發的模型,還是轉售的別家模型;而提供的模型服務,處理的是複雜任務(需要高質量旗艦模型才能完成),還是一些簡單的離線打標工作?

9月份的一份沙利文報告,就體現了這種更看重自研能力的思路。按各廠商「自研模型」的日均調用Token份額,數據顯示,2025年上半年,阿里通義佔17.7%,字節跳動豆包占14.1%,DeepSeek則佔10.3%。

價格戰難以長期持續。大模型正在從比拼基礎設施規模,Token調用量等單一指標,過渡到比拼效能、服務深度。

典型跡象是,2024年,單純降價格,還能讓Token市場有所爆發;但到了2025年,這已經不是靈丹妙藥。因為Token已經足夠便宜,企業更多關注模型效果和效率。

對規模更小的AI模型廠商而言,他們沒有資源做大廠的全棧式路線。那麼,差異化會變得前所未有地重要。

最近的例子是,2025年,月之暗面推出的新模型K2,對代碼任務做了深度優化,性價比足夠高,調用量瞬間起飛;上周,智譜也針對編程場景推出了GLM Coding套餐,並提升了編程服務的併發數。

商業競爭是相當朴實無華的。一個不破的道理是:當在對手擅長的指標上落后時,不如在自己的長板上,重新定義一個指標。而究竟有多少客户買單,纔是當下大模型領域最重要的問題。

歡迎交流

本文來自微信公眾號「36氪Pro」,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。