熱門資訊> 正文
2025-10-28 22:24
henry 發自 凹非寺
量子位 | 公眾號 QbitAI
你的下一塊AI芯片,何必非得是英偉達和AMD。
高通宣佈推出兩款全新的AI芯片——AI200和AI250,正式進軍數據中心市場。
消息一出,高通股價一度飆升超20%,創自2019年以來的最大單日漲幅。
巧的是,高通上一款數據中心產品AI 100也是2019年發佈,但那時更多面向端側/輕量級推理。
時隔六年,「手機芯片的神」終於撕掉了「端側標籤」,正式向大型數據中心市場發起衝擊。
這回,真要從英偉達嘴里搶肉吃了。
從端側轉向雲端
高通此次推出的AI200與AI250,本質上是面向數據中心的機架級推理加速器與整機架系統,聚焦AI模型的推理階段,主打行業最低的總擁有成本(TCO)、更高的能效與更強的內存處理能力。
(注:總擁有成本指的是購買、部署和運營某項設備或系統的全周期成本)
AI200預計2026年商用,既可作為獨立芯片/卡模塊出售,也可作為由高通交付的整機架服務器系統提供。
基於AI200的機架系統支持多顆芯片協同工作,每張加速卡支持768GB LPDDR內存,面向大語言模型和多模態推理場景。
AI250計劃2027年推出,其差異化亮點是引入近存計算(near-memory computing)的全新內存架構。
高通聲稱這一架構能帶來超過10倍的有效內存帶寬提升並顯著降低功耗,從而更好支持「解耦式AI推理(disaggregated inference)」等大規模推理部署模式。
兩種機架方案均支持直液冷散熱、PCIe與以太網擴展、機密計算(confidential computing)等企業級功能,且面向高密度機架場景(160kW級別)。
除了硬件,高通同時在推進面向超大規模推理的端到端軟件棧,承諾支持主流框架與工具鏈(如PyTorch/ONNX、vLLM、LangChain、Hugging Face等),並提供一鍵部署與運維工具,以降低客户TCO並加速模型在生產環境的落地。
此外,高通還表示,未來將以每年一代的節奏推進數據中心產品路線圖,持續提升AI推理性能、能效表現以及整體TCO競爭力。
從安卓機到數據中心,早有佈局
雖然大家平時印象里高通都是手機芯片,但其實早在2019年,高通就已經開始佈局數據中心芯片了。
只不過那會兒主要還是瞄準物聯網、5G這些端側場景。
這次的爆發,一方面得益於高通在手機芯片的技術積累——AI200/AI250的核心計算單元就源自Hexagon神經處理單元(NPU)。
另一方面,高通近年來不斷改進Hexagon NPU,不僅加入標量、矢量、張量加速器,支持INT2、INT4、INT8、INT16、FP8、FP16等多種數據格式,還搞了微塊推理、64位內存尋址、虛擬化和生成式AI模型加密。
正如高通數據中心與邊緣計算業務總經理Durga Malladi説:
我們先在別的領域證明了自己,等實力夠了,再進數據中心,順理成章。
除開高通自己的努力,數據中心本身就是一塊肥肉。
據麥肯錫預測,到2030年,全球數據中心投資將達到6.7萬億美元。
雖然目前的市場格局,仍是英偉達吃肉(佔90%以上份額)、AMD吃麪,其余人喝湯,但巨頭們也都在找替代方案——
比如,OpenAI這個月宣佈要買AMD芯片,可能還要入股。
谷歌、亞馬遜、微軟也都在搞自家AI加速芯片。
高通的入局,無疑讓市場更熱鬧了。
截至目前,高通已經拿下沙特 AI 初創公司Humain的訂單,該公司計劃從2026年起部署基於AI200/AI250的機架級算力系統,總功率高達200兆瓦。
讓我們進一步期待高通后續的動作吧!
參考鏈接:
[1]https://www.bloomberg.com/news/articles/2025-10-27/qualcomm-unveils-chip-to-rival-nvidia-in-ai-accelerator-market
[2]https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent
(聲明:本文僅代表作者觀點,不代表新浪網立場。)