繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

【產業信息速遞】微軟對NPU很痴迷,英偉達加緊芯片新賽道佈局

2025-01-26 13:52

(信息來源:theregister)

Nvidia 是 AI 基礎設施領域無可爭議的冠軍——至少在數據中心領域。在 AI PC 這一新興領域,情況並不那麼明朗。

2024 年初,無論好壞,很明顯,Windows的未來將充滿AI增強的功能和體驗。主要功能包括實時字幕和翻譯、MS Paint 中的圖像生成,以及最終有點可疑的回憶功能,該功能可捕獲定期屏幕截圖並使用它們來跟蹤過去的活動。

目前,這些新功能僅限於所謂的 Copilot+ PC,但爲了獲得該稱號,計算機必須滿足微軟的最低性能目標。

根據 Windows 巨頭的文檔,Copilot+ PC 需要一個能夠每秒執行 40 TOPS 或更高速度的神經處理單元 (NPU),或每秒執行 40 多萬億次INT8 AI 操作,以及至少 16GB 的 RAM 和 256GB 的存儲空間。當這一切推出時,只有高通擁有能夠滿足雷德蒙德 NPU 要求的處理器,因此只有配備該芯片的 PC 才被允許作為 Copilot+ PC 運行上述 AI 增強功能。

從那時起,高通符合 Arm 要求的 X芯片就與英特爾的 Lunar Lake 以及 AMD 的 Strix Point 和 Halo 處理器系列一起成為符合 Copilot + PC 標準的芯片。

然而,不知何故,本月在 CES 2025 上發佈的售價 2,000 美元的 Nvidia RTX 5090擁有超過 3.3 petaFLOPS 的 AI 計算能力(順便説一下,這是 FP4),對於雷德蒙德來説仍然不夠好。無論您的 GPU 可以產生多少 FLOPS 或 TOPS,對微軟來説,只有NPU能夠產生這些 FLOPS 纔是最重要的——至少目前是這樣。

Nvidia在AI PC方面並未懈怠

人工智能 PC 的大部分營銷宣傳都圍繞着微軟的 Copilot+ 規格,這是可以理解的。如今,幾乎每台售出的 PC 都運行 Windows。PC 軟件生態系統的主導地位使得微軟對 NPU 的痴迷難以忽視,但這並不意味着 Nvidia 一直固步自封,滿足於在數據中心、工作站圖形和獨立遊戲 GPU 領域稱霸。

事實上,Nvidia 多年來一直致力於將 AI 功能引入 PC,Nvidia 負責 Windows AI 產品營銷的 Jesse Clayton 向The Register表示。

克萊頓説:「早在 2018 年,我們就推出了首款配備專用 AI 硬件(即我們的張量核心)的 GeForce GPU 和 Nvidia GPU,從而開啟了 PC 上 AI 的浪潮。與此同時,我們還宣佈了首個廣泛部署的 PC AI,即 DLSS,它用於遊戲中,通過使用 AI 生成像素來加速幀速率,現在又可以為遊戲生成幀。」

此后,這家 GPU 巨頭推出了RTX AI 工具包,這是一套用於在 Windows PC 上優化和部署 genAI 模型的工具和軟件,將 Nvidia 推理微服務 ( NIM ) 引入 PC,並推出了許多藍圖,用於最先進的圖像生成和將 PDF 轉換為播客等。

克萊頓解釋説:「我們的策略是提供有趣且差異化的體驗,無論是作為遊戲玩家,因為它可以增強你的遊戲體驗;還是作為創作者,因為它可以節省你的時間並減少重複而繁瑣的工作。」

雖然其中一些體驗直接針對最終用户(例如 ChatRTX 和 RTX Voice),但 Nvidia 最近推出的許多軟件都是針對開發者社區的。

競爭還是機遇

不管你對 Copilot+ 的實際價值有何看法,微軟已經成功迫使芯片組設計師提供某種形式的 NPU,以滿足 Windows 巨頭的需求,同時也為機器學習性能設定了新的最低標準。

考慮到 Windows 的市場份額以及微軟將 AI 強行塞入其軟件各個角落的持續努力,NPU 滲透到甚至最低預算的配置中只是時間問題。

此外,採用 Microsoft 的DirectML和ONNX Runtime等框架有助於簡化應用程序開發,並允許代碼以最少的重新調整在各種硬件上運行。

這對 Nvidia 來説是一個潛在的問題。這家硅谷巨頭可能在獨立顯卡處理器市場佔據主導地位,被其CUDA 護城河所包圍,但其 GPU 只在售出的 PC 中佔比約18%,絕大多數系統使用英特爾、AMD 或其他公司的集成顯卡。

可以肯定的是,不久之后,NPU 將成為開發 AI 應用的開發人員的更大目標。儘管 Nvidia 不一定會退出討論,因為它的加速器也支持許多更受歡迎的軟件框架,但至少它的部分競爭優勢在於説服開發人員使用其庫和微服務,這些庫和微服務有望實現更輕松的集成以及更高的性能和效率。

克萊頓表示,最終,開發人員必須決定是否要使用 NIM 之類的東西快速將他們的應用推向市場,或者是否要支持儘可能多的安裝基礎。

不過,儘管 Nvidia 最終可能會面臨來自 NPU 的競爭(AI PC 仍然是一個相當小眾的市場),但這未必都是壞消息。即使模型最終沒有在 Nvidia 的 PC 硬件上運行,它們也極有可能在其 GPU 上進行訓練。

即便如此,Clayton 仍認為NPU 並不適合所有工作負載。40 TOPS 是一個不錯的計算量,但正如我們之前提到的,與高端圖形芯片的性能相比,它顯得微不足道。

他説:「NPU 將成為運行輕量級 AI工作負載的地方,而且它們的能效非常高。GPU 則是運行要求更高的 AI 用例的地方,這也是我們一直在推動和集中精力的地方。」

「對於那些無法在 PC 上運行的東西,你可以在雲端的 GPU 上運行它們,這樣你就可以獲得無限的性能,」Clayton 補充道。

GPU或許會受到Copilot+的青睞

已經有證據表明,微軟可能會將一些 Copilot+ 功能擴展到 GPU,以支持未來更具計算挑戰性的工作負載。

微軟沒有回答我們關於其利用 GPU 計劃的問題。不過,在 6 月份的一份聲明中,Nvidia 表示正在與微軟合作,通過 Windows Copilot Runtime 為小型語言模型 (SLM) 添加 GPU 加速。

該技術原本應該在 2024 年底實現,但微軟自己的文檔(上次更新時間為 12 月 5 日)並未提及 GPU,而是特別指出 NPU 是其尚未推出的 SLM Phi Silica 項目的必要條件。

克萊頓拒絕提供有關合作的任何最新消息,並表示「最終,微軟將決定在哪里運行哪些工作負載。」

微軟是否以及何時選擇將 GPU 用於本地 AI 最終可能取決於硬件可用性。截至撰寫本文時,配備 NPU 和專用顯卡的 Copilot+ PC 數量相當少。

在桌面上,情況更加棘手。帶有 NPU 的桌面芯片確實存在,但據我們所知,它們都沒有達到微軟 40 TOPS 的性能要求。我們預計更強大的 NPU 很快就會進入桌面芯片領域。英特爾或 AMD 只需找到一種方法,將其移動芯片中的 NPU 塞進桌面芯片中即可。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。