繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

Cerebras上市背后,OpenAI正在搶英偉達的蛋糕

2026-05-09 17:00

OpenAI還沒上市,它的「算力小弟」先要上市了。

2026年5月,AI芯片製造商Cerebras Systems在最新S-1/A文件中披露IPO發行細節,股票代碼CBRS,計劃發行2800萬股,定價區間115-125美元,募資規模最高可達35億美元,目標估值達266億美元。

這件事有點反常。

因為有黃仁勛這座大山在,資本怎麼可能容得下小小的一隻Cerebras呢?

大模型公司燒錢,雲廠商買卡,創業公司排隊等GPU,最后利潤大多流向賣鏟子的英偉達,這纔是現狀。

但OpenAI似乎想要改寫這條鏈路。

5月6日,OpenAI組了個局,把自己放在了龍頭老大的座位上,然后把英偉達、AMD、英特爾、博通、微軟這些明顯存在競爭關係的芯片公司拉到一起,推出了一套面向大型AI訓練集群的網絡協議(MRC,Multi-Rail Compute)。

表面上,這是一次超算網絡合作。更深一層看,我認為OpenAI是想要重新分蛋糕了。

首先可以明確一點,OpenAI沒有拋棄英偉達,它也沒有辦法拋棄英偉達。至少在當前階段,OpenAI絕對沒有勇氣All in一個「英偉達殺手」。

相反,OpenAI正在把原本被英偉達一家公司強勢覆蓋的算力體系拆開:訓練歸訓練,推理歸推理,網絡歸網絡,雲歸雲。不同負載,用不同芯片;不同環節,找不同供應商。

Cerebras就是在這個時候被推上牌桌。

Cerebras當然還不是英偉達的對手,也不可能在短期內撼動CUDA和GPU集群構成的護城河。

但Cerebras的上市,真正值得看的地方,不是又一家AI芯片公司衝刺IPO,而是OpenAI開始把推理這門生意單獨拎出來定價了。

01 押注推理

事實上,這已經是Cerebras第二次衝擊IPO了。

2024年10月,Cerebras曾經提交過上市申請,但很快就撤回了。

原因是美國外資投資委員會(CFIUS)對它的阿聯酋投資方G42展開審查。那時候,阿聯酋G42人工智能公司不僅是Cerebras的股東,還是它最大的客户,貢獻了超過80%的收入。

這種深度綁定的關係,再加上當時美國與阿聯酋之間略微的不和諧,自然讓監管部門不太放心Cerebras。

到了2025年3月,CFIUS終於放行,G42的股份被重組為無投票權股份,監管風險暫時解除。

但Cerebras並沒有立刻重啟上市,而是等到了2026年5月,恰好趕上了AI基礎設施投資熱。

Cerebras上市的真正意義,其實不在於它又是一家AI芯片公司要IPO。

市場上不缺芯片公司,缺的是一個故事,一個能讓資本相信「推理市場可以獨立定價」的故事。

OpenAI目前剛剛開始主動重組供應鏈,把不同芯片匹配到不同工作負載,這件事本身就是在細化芯片產業。

訓練是一層,推理是一層,網絡是一層,雲分發是一層,應用場景又是一層。每一層都可以有不同的玩家,每一層都可以重新定價。

Cerebras在OpenAI的算力供應鏈中,負責的就是推理這一環。

Cerebras的核心競爭力,在於它那顆獨特的晶圓級引擎芯片WSE-3。

傳統芯片都是從一整片晶圓上切割出很多小塊,每一小塊是一顆芯片。

英偉達的GPU就是這麼做的,然后再把很多顆GPU通過高速互聯組成集群。這種方式的好處是成熟、穩定、生態完整,壞處是芯片之間來回搬數據的成本很高,尤其是在推理場景,延迟會被放大。

Cerebras的WSE-3完全不同。

它直接把整片12英寸晶圓做成一顆巨型芯片,面積達到46225平方毫米,相當於一張A4紙的三分之一大小。

WSE-3基於臺積電5nm工藝,擁有4萬億個晶體管,90萬個AI優化核心,44GB片上SRAM,內存帶寬達到21PB/s。如果和英偉達H100對比,WSE-3的面積是H100的57倍,核心數量是52倍,片上內存是880倍,內存帶寬是7000倍。

這些數字聽起來很誇張,但關鍵不在於「大」,而在於「快」。

在推理場景,尤其是當下最火的長文本輸出、實時交互、代碼生成、agent這些需要低延迟的任務上,Cerebras的優勢非常明顯。

它的CS-3系統在推理速度上比英偉達DGX B200快21倍,成本和能耗都降低到三分之一。

快,就意味着OpenAI可以在單位時間內服務更多的客户。

訓練市場是英偉達的絕對主場,CUDA生態、成熟工具鏈、大規模GPU集群,這些護城河短期內很難被撼動。

推理市場不一樣,此前推理市場是個非常小眾的市場,算力大頭在訓練。但是隨着越來越多的行業、應用開始使用AI,推理正在成為AI應用商業化的關鍵。

早期,Cerebras主要賣硬件系統。一套CS-3系統售價高達數百萬美元,客户群體主要是超大規模數據中心、雲服務商和政府機構。這種模式的問題在於,客户採購門檻太高,銷售周期長,收入波動大。

從2024年開始,Cerebras逐步轉向基於自有芯片的雲服務模式。客户不需要購買昂貴的硬件,只需要按需使用Cerebras的算力集群。

2025年,Cerebras的財務數據非常亮眼。全年營收5.1億美元,比2024年的2.9億美元增長了76%。更重要的是,淨利潤達到8790萬美元,相比2024年4.85億美元的鉅額虧損,實現了扭虧為盈。

但Cerebras的客户集中度太高了。

2025年,阿聯酋AI公司MBZUAI貢獻了62%的收入,G42貢獻了24%,前兩大客户佔比高達86%。未來,OpenAI將成為Cerebras最大的客户。

這確實給了Cerebras大量的收入,不過這就意味着Cerebras必須受制於這些大客户,不能有太多自己的想法。

02 OpenAI也在轉型

2026年1月,OpenAI與Cerebras宣佈簽署多年協議。

根據協議,Cerebras將為OpenAI提供750兆瓦的低延迟AI算力,部署將分階段進行到2028年,交易總價值超過200億美元。這是全球最大的高速AI推理部署項目,也是OpenAI算力戰略的一次重大轉向。

但這份協議的深度,遠不止採購合同這麼簡單。

OpenAI創始人奧特曼、總裁布魯克曼、前首席科學家伊利亞、董事會成員亞當·安戈洛(Adam D‘Angelo),這些OpenAI的核心高管,都以個人的身份投資了Cerebras。

你以為這就完了?早着呢!

OpenAI還通過貸款、認股權證等金融工具,與Cerebras建立了長期利益綁定。這種超越簡單供應商關係的深度合作,讓Cerebras成爲了OpenAI的資產,甚至我可以説,現在的Cerebras,就是OpenAI的芯片部門。

這種綁定方式,在科技行業並不常見。

OpenAI與Cerebras的合作,不能簡單理解成「用Cerebras替代英偉達」。

前文提到,OpenAI在2026年5月6日專門和各位芯片龍頭企業組了個局,合作開發MRC網絡協議,用於提升大型AI訓練集群的網絡效率和韌性。

OpenAI並沒有放棄英偉達,但OpenAI也不想久居英偉達之下。

OpenAI的真實意圖是什麼?

訓練繼續使用英偉達高端GPU,推理引入Cerebras的低延迟方案,部分GPU採購AMD方案,網絡協議開放化,雲服務在AWS、Azure、谷歌Cloud之間多家下注。

未來,OpenAI還可能推進自研芯片。

這是一種「算力組合拳」策略,不同工作負載匹配不同系統,不再單獨依賴英偉達的全棧方案。

這種戰略轉變的本質,是OpenAI正在從一家模型公司轉變為算力架構公司。

以前,OpenAI只能被動接受芯片廠商定義的技術路線。

英偉達出什麼芯片,OpenAI就用什麼訓練。

雲廠商提供什麼服務,OpenAI就在什麼平臺上部署。這種被動狀態,在AI競爭的早期階段是可以接受的,因為那時候最重要的是快速迭代模型,而不是優化基礎設施。

但現在不一樣了。

當ChatGPT的周活躍用户超過9億,推理成本越來越高,OpenAI不能再被動得去等英偉達發佈新產品,他們得主動設計更符合當下AI需求的算力組合。

OpenAI正在做的,是把芯片供應商從「平臺提供者」降維為「模塊供應商」。

在過去的AI算力市場,英偉達提供的不只是GPU,而是一整套從硬件到軟件、從芯片到網絡、從單機到集群的完整解決方案。客户買的不是一顆芯片,而是一個生態。

這種完整性,既是英偉達的核心競爭力,也是它能夠維持高毛利率和定價權的根本原因。

OpenAI現在要打破這個完整性,英偉達的超級客户,開始逐漸掌握供應鏈的主導權。

這對英偉達來説,是比丟失訂單更深層的衝擊。

03 英偉達怎麼説

雖然我前面下了很多利空英偉達的判斷,但是我認為,Cerebras上市,對英偉達的衝擊不會很大。就像身上長了個粉刺、痱子一樣無關痛癢。

英偉達目前仍然佔據AI芯片市場約80-90%的份額。

CUDA生態、GPU供應鏈、NVLink網絡,這些護城河短期內很難被撼動。

Cerebras的WSE芯片單價高達數百萬美元,產能有限,客户群體主要是超大規模數據中心和雲服務商,無法在短期內大規模替代英偉達GPU。

更重要的是,CUDA生態經過十余年積累,已經成為AI開發的事實標準。幾乎所有主流AI框架、模型、工具鏈,都優先適配CUDA。開發者社區、技術文檔、最佳實踐,全都圍繞CUDA構建。

這種生態優勢,不是一兩年就能被追上的。

然而Cerebras對英偉達的威脅依然還是存在的。

過去,AI公司幾乎別無選擇,只能使用英偉達GPU。現在,至少在推理場景,客户有了可行的替代方案。這種選擇權的出現,削弱了英偉達的定價權。

當OpenAI可以説「推理我用Cerebras,訓練我用英偉達」時,英偉達就失去了「全包」的議價能力。

如果Cerebras的故事將通,那麼AI算力市場就真的開始分層了。

訓練和推理的需求差異被明確化,專用芯片在細分場景的優勢被驗證。英偉達「一種芯片打天下」的敍事不再完全成立。市場也會從「通用GPU壟斷」走向「場景化芯片組合」。

在這個新格局里,英偉達在訓練市場的優勢依然穩固。但在推理市場,尤其是低延迟推理、實時交互這些場景,專用芯片的優勢開始顯現。

而且,還只是OpenAI這一家這麼干。Anthropic也開始和亞馬遜、谷歌結盟。這些頭部AI公司,都在通過多元化採購來降低對英偉達的依賴。

英偉達面臨的挑戰還不止於此。

AI推理市場的快速增長,可能會超過訓練市場。根據LP Information/MarketPublishers在《Cloud AI Inference Chips》這份報告中的預測,全球AI推理市場在2026-2032年期間的複合增長率將達到28.9%。

推理場景,肯定更適合專用芯片。當推理市場的規模超過訓練市場時,英偉達在推理領域的相對弱勢,就會成為更大的問題。

不過英偉達的短期優勢依然穩固。

2026年,英偉達在GTC大會上強調了加速計算生態系統的深度,覆蓋汽車、金融服務、醫療健康、工業、媒體、量子計算、零售、機器人和電信等多個領域。

黃仁勛把CUDA-X庫稱為英偉達的「掌上明珠」,這套豐富的軟件棧,是Cerebras沒有的,也是英偉達又一道護城河。

英偉達的Blackwell架構即將大規模出貨,性能和能效都有顯著提升。英偉達在訓練市場上的優勢,將會進一步鞏固。

但長期來看,英偉達必須適應一個新現實,他們正在從「唯一供應商」變成「核心供應商之一」。

這個轉變,不是因為英偉達變弱了,而是因為市場變大了,客户變強了,需求變複雜了。

當AI從實驗室走向大規模商業化,當算力需求從訓練擴展到推理,當超級客户開始主動設計算力架構,單一供應商的「完整解決方案」就絕對不再是最優的選擇。

本文來自微信公眾號「字母AI」,作者:苗正,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。