熱門資訊> 正文
2025-06-30 15:12
神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。
編者按:當公眾的目光都聚焦在AI模型迭代時,一場真正的革命已悄然發生:全球企業級AI推理用量正呈指數級飆升,其商業變現能力遠超預期。本文用硬核數據揭示這場靜默爆發的產業質變。文章來自編譯。
很長時間以來,大多數AI服務(尤其是推理API)的使用量與收入的增長都極其迅猛。SemiAnalysis的Dylan Patel指出,這些API對企業來説利潤非常高——毛利率有時候高達75%甚至更高。這在搞AI的人當中是衆所周知的一個公開事實,但在新模型發佈與功能炒作此起彼伏的喧囂當中,廣大公眾反而可能忽視了這一點。
我認為向普通用户提供訂閲服務也是盈利的,但重度用户很可能會成為AI公司的成本負擔,再加上訓練尖端模型還需要明顯的資本支出。儘管如此,即便模型保持不變,其使用量也在呈指數級增長,而且其中很大一部分都在盈利範圍內。
早在今年上半年我們看到整個行業取得諸多驚人進展之前,AI使用的極端(某些情況下是指數級)增長就已經發生了。推理模型將推理答案從幾百個token擴展到有時數萬個token,這會讓使用量圖走勢限額更加陡峭。與此同時,這些模型通常按token收費,因此所有這些都將帶來更多收入。
鑑於2025年整個行業表現出來的巨大熱情與取得的進展,谷歌I/O大會的主題演講堪稱一場精彩的AI「國情諮文」,它跨越了模態、硬件形態以及任務展示了這一點。這場演講非常值得一看。谷歌正試圖在各個方面展開競爭。他們的定位是贏下幾個特定應用場景,並在其他領域保持前三名。沒有其他AI公司能接近這種全面性——我們將觀察他們的產品文化如何適應。
I/O大會的亮點包括:谷歌對標OpenAI o1 Pro的產品Gemini Deep Think,谷歌新的多模態模型(如帶音頻功能的Veo 3——據我所知這是頭部玩家的首次嘗試),一款對標Meta和蘋果的增強現實頭顯的現場演示,以及新版的Gemini 2.5 Flash——它將成為大多數客户與Gemini互動的基礎。
主題演講中有太多精彩案例,單獨寫出來意義不大。這些方向我們早已看到擺在面前,但谷歌及其夥伴推進的速度遠超多數人預期。前沿語言模型評估大多已完全飽和。這就是為什麼谷歌(以及最近其他公司)分享的宏觀使用數據纔是對的焦點。重點不在某個模型,而在於這場變革是實實在在發生的。
最能體現這點的幻燈片展示了谷歌所有AI平臺處理的AI token數量(即包括所有模態),最近幾個月這個數字正在飆升。
我在圖表上標註了近似值:二月拐點時月處理總量約為160萬億(160T)token——Gemini 2.5 Pro發佈於三月下旬,這個模型固然有貢獻,但並非拐點的唯一原因。大致數字如下:
2024年4月:9.7萬億 token
2024年12月:90萬億 token
2025年2月:160萬億 token
2025年3月:300萬億 token
2025年4月:480萬億+ token
月處理token數正迅速逼近1000萬億(1 quadrillion)。不是所有token的價值都一樣,但這相當於每秒處理約1.5億至2億token。在全球谷歌年搜索量5萬億次(約合每秒10萬次搜索)的背景下,每秒token數大致相當於每次搜索使用約1000個token(儘管計算資源分配方式絕非如此)。這些token數量令人難以置信。
谷歌的主要AI產品仍是基於Gemini模型的搜索概覽功能,他們一再強調用户喜愛該功能,覆蓋超十億人羣(我們只是不清楚具體服務方式,我懷疑同一代內容會用於數千用户)。
谷歌每月生成的token數量已超過Common Crawl的存儲量——提醒一下,Common Crawl被稱為「開放網絡快照」的標準,也是AI預訓練數據集的起點。利用Common Crawl進行預訓練的RedPajama 2項目(由Together AI主導)估計,Common Crawl原始數據約含100萬億token,其中通常只有5至30萬億token用於預訓練。可以預見,一兩年內谷歌單日處理的token量就能達到這個規模。
這篇文章對互聯網各領域數據量與Common Crawl等數據轉儲或谷歌Gemini等生成內容做出來一些估算。文章將谷歌每日token處理量描述為:相當於4小時內讀取或生成了Google Books的所有數據,或者略超一個月處理完全球存儲的所有即時消息。
以下是那篇文章舉出的一些例子:
若以數據量計,互聯網正被重構為AI優先的服務。人類生成的數據將迅速過時。
谷歌的數據令人印象深刻,但這絕非個例。整個行業正在騰飛。這是一個持續加速過程的一部分:基於前代模型的產品開始獲得關注,同時新模型的面世又開啟了新的增長周期。要估算這個增長周期的上限近乎不可能。
比方説,就在幾周前的2025年第三季度財報會議上,微軟CEO薩提亞·納德拉(Satya Nadella)談到了Azure AI服務的輸出量:
我們本季度處理了超過100萬億token,同比增長5倍——僅上月就創紀錄地處理了50萬億的token。
因此,谷歌的token處理量幾乎是Azure的10倍,很多人會説,相較於微軟早期與OpenAI合作託管其模型,谷歌起步較晚。
對其他服務(如ChatGPT)的估算則混亂得多(私營公司數據過時),但畫出來的曲線都差不多。薩姆·阿爾特曼(Sam Altman)曾於2024年2月在X上發文:
openai現在每天生成約1000億個單詞。
整個地球上的人每天產生約100萬億單詞。
根據經驗法則(1個單詞≈0.75個token),每日1000億單詞相當於每月約4萬億token。這大約是谷歌2024年4月數據的一半,這個數字既有趣又令人印象深刻。
我們需要更多信息來判斷OpenAI的增長是否緊跟谷歌,但ChatGPT發展的許多基本背景都指向大趨勢相同。ChatGPT的整體趨勢是用户數增加、單用户發送消息增多、單條消息生成token量增大。我估計ChatGPT的token處理量比Azure大,但小於谷歌。
多模型API平臺OpenRouter的排名也顯示出相似趨勢,近幾個月處理量約為2萬億token——根據上述衡量方式,這與一年前的ChatGPT處於同一數量級。
不僅西方企業如此,像字節跳動或百度等中國公司也正進入每日1萬億token的量級。
當Anthropic或OpenAI等快速增長的公司分享看似難以置信的收入預測時,也許我們該多給予一點信任?
還有很多處在測試階段的功能(主要是編碼智能體)將推動這些數字飆升。我們一直在試用Claude Code、OpenAI的Codex、谷歌的Jules以及無數其他智能體,這些智能體每次運行幾分鍾就會消耗海量的文本token。我跟朋友估算過,一次深度研究查詢會消耗約100萬token進行推理。很快,單個任務將消耗約1000萬、乃至1億的token。而僅僅兩年前,一次令人驚艷的ChatGPT查詢也只消耗100-1000個token。
現在正是做token銷售生意的好時機。這僅僅是個開始。
譯者:boxi。