熱門資訊> 正文
2026-01-06 07:46
英偉達在CES展會推出新一代Rubin AI平臺,標誌着其在人工智能(AI)芯片領域保持年度更新節奏。該平臺通過六款新芯片的集成設計,在推理成本和訓練效率上實現大幅躍升,將於2026年下半年交付首批客户。
美東時間5日周一,英偉達CEO黃仁勛在拉斯維加斯表示,六款Rubin芯片已從合作製造方處回廠,並已通過部分關鍵測試,正按計劃推進。他指出"AI競賽已經開始,所有人都在努力達到下一個水平"。英偉達強調,基於Rubin的系統運行成本將低於Blackwell版本,因為它們用更少組件即可實現相同結果。
微軟和其他大型雲計算提供商將成為下半年首批部署新硬件的客户。微軟的下一代Fairwater AI超級工廠將配備NVIDIA Vera Rubin NVL72機架級系統,規模可擴展至數十萬顆NVIDIA Vera Rubin超級芯片。CoreWeave也將是首批提供Rubin系統的供應商之一。
該平臺的推出正值華爾街部分人士擔憂英偉達面臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但英偉達保持長期看漲預測,認為總市場規模可達數萬億美元。
性能提升瞄準新一代AI需求
據英偉達公告,Rubin平臺的訓練性能是前代Blackwell的3.5倍,運行AI軟件的性能則提升5倍。與Blackwell平臺相比,Rubin可將推理代幣生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。
新平臺配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,採用88個定製Olympus核心、完整Armv9.2兼容性和超快NVLink-C2C連接。
Rubin GPU配備第三代Transformer引擎,具備硬件加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的帶寬,而Vera Rubin NVL72機架則提供260TB/s帶寬。
芯片測試進展順利
黃仁勛披露,全部六款Rubin芯片已從製造合作伙伴處返回,並已通過顯示其可按計劃部署的關鍵測試。這一表態表明英偉達正維持其作為AI加速器領先製造商的優勢地位。
該平臺包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域數據安全保護的機架級平臺。
第二代RAS引擎橫跨GPU、CPU和NVLink,具備實時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模塊化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。
廣泛生態系統支持
英偉達表示,包括亞馬遜的AWS、谷歌雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作伙伴CoreWeave、Lambda、Nebius和Nscale也將跟進。
OpenAI CEO Sam Altman表示:「智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。英偉達Rubin平臺幫助我們持續擴展這一進展。」
Anthropic聯合創始人兼CEO Dario Amodei稱,英偉達「Rubin平臺的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步」。
Meta CEO扎克伯格表示,英偉達的「Rubin平臺有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的」。
英偉達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類服務器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平臺訓練更大型、更強大的模型。
提前公佈產品細節
評論稱,英偉達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬件的舉措之一。因為英偉達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。
對黃仁勛而言,CES只是其馬拉松式出席活動的又一站。他要在各類活動中宣佈產品、合作和投資,均旨在為AI系統部署增添動力。
英偉達公佈的新硬件還包括網絡和連接組件,將成為DGX SuperPod超級計算機的一部分,同時也可作為單獨產品供客户以更模塊化的方式使用。這一性能提升是必需的,因為AI已轉向更專業化的模型網絡,不僅要篩選海量輸入,還需通過多階段流程解決特定問題。
英偉達正在推動面向整個經濟領域的AI應用,包括機器人、醫療保健和重工業。作為這一努力的一部分,英偉達宣佈了一系列旨在加速自動駕駛汽車和機器人開發的工具。目前,基於英偉達的計算機支出大部分來自少數客户的資本支出預算,包括微軟、Alphabet旗下的谷歌雲和亞馬遜旗下的AWS。