繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

高通新款雲端芯片公開!借推理搶英偉達蛋糕,市值一夜暴漲197.4億美元

2025-10-28 22:24

henry 發自 凹非寺

量子位 | 公眾號 QbitAI

你的下一塊AI芯片,何必非得是英偉達和AMD。

高通宣佈推出兩款全新的AI芯片——AI200AI250,正式進軍數據中心市場。

消息一出,高通股價一度飆升超20%,創自2019年以來的最大單日漲幅

巧的是,高通上一款數據中心產品AI 100也是2019年發佈,但那時更多面向端側/輕量級推理

時隔六年,「手機芯片的神」終於撕掉了「端側標籤」,正式向大型數據中心市場發起衝擊。

這回,真要從英偉達嘴里搶肉吃了。

從端側轉向雲端

高通此次推出的AI200AI250,本質上是面向數據中心的機架級推理加速器與整機架系統,聚焦AI模型的推理階段,主打行業最低的總擁有成本(TCO)、更高的能效與更強的內存處理能力

(注:總擁有成本指的是購買、部署和運營某項設備或系統的全周期成本)

AI200預計2026年商用,既可作為獨立芯片/卡模塊出售,也可作為由高通交付的整機架服務器系統提供。

基於AI200的機架系統支持多顆芯片協同工作,每張加速卡支持768GB LPDDR內存,面向大語言模型和多模態推理場景。

AI250計劃2027年推出,其差異化亮點是引入近存計算(near-memory computing)的全新內存架構。

高通聲稱這一架構能帶來超過10倍的有效內存帶寬提升並顯著降低功耗,從而更好支持「解耦式AI推理(disaggregated inference)」等大規模推理部署模式。

兩種機架方案均支持直液冷散熱、PCIe與以太網擴展、機密計算(confidential computing)等企業級功能,且面向高密度機架場景(160kW級別)。

除了硬件,高通同時在推進面向超大規模推理的端到端軟件棧,承諾支持主流框架與工具鏈(如PyTorch/ONNX、vLLM、LangChain、Hugging Face等),並提供一鍵部署與運維工具,以降低客户TCO並加速模型在生產環境的落地。

此外,高通還表示,未來將以每年一代的節奏推進數據中心產品路線圖,持續提升AI推理性能、能效表現以及整體TCO競爭力。

從安卓機到數據中心,早有佈局

雖然大家平時印象里高通都是手機芯片,但其實早在2019年,高通就已經開始佈局數據中心芯片了。

只不過那會兒主要還是瞄準物聯網、5G這些端側場景。

這次的爆發,一方面得益於高通在手機芯片的技術積累——AI200/AI250的核心計算單元就源自Hexagon神經處理單元(NPU)

另一方面,高通近年來不斷改進Hexagon NPU,不僅加入標量、矢量、張量加速器,支持INT2、INT4、INT8、INT16、FP8、FP16等多種數據格式,還搞了微塊推理、64位內存尋址、虛擬化和生成式AI模型加密。

正如高通數據中心與邊緣計算業務總經理Durga Malladi説:

我們先在別的領域證明了自己,等實力夠了,再進數據中心,順理成章。

除開高通自己的努力,數據中心本身就是一塊肥肉。

據麥肯錫預測,到2030年,全球數據中心投資將達到6.7萬億美元

雖然目前的市場格局,仍是英偉達吃肉(佔90%以上份額)、AMD吃麪,其余人喝湯,但巨頭們也都在找替代方案——

比如,OpenAI這個月宣佈要買AMD芯片,可能還要入股。

谷歌、亞馬遜、微軟也都在搞自家AI加速芯片。

高通的入局,無疑讓市場更熱鬧了。

截至目前,高通已經拿下沙特 AI 初創公司Humain的訂單,該公司計劃從2026年起部署基於AI200/AI250的機架級算力系統,總功率高達200兆瓦

讓我們進一步期待高通后續的動作吧!

參考鏈接:

[1]https://www.bloomberg.com/news/articles/2025-10-27/qualcomm-unveils-chip-to-rival-nvidia-in-ai-accelerator-market

[2]https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。