繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

NPU要搶奪GPU的市場,英偉達不會坐以待斃

2024-05-02 10:35

如果您希望可以時常見面,歡迎標星 收藏哦~

來源:內容由半導體行業觀察(ID:icbank) 編譯自techspot,謝謝。

隨着微軟、英特爾、高通和蘋果等公司準備推廣優先考慮設備內人工智能操作的個人電腦和其他設備,競爭標準可能很快就會出現。微軟和英特爾最近概述了他們認為應該歸類為「人工智能電腦」的產品,但人工智能領域目前的領導者英偉達卻有不同的想法。

Nvidia最近泄露的一份內部演示解釋了該公司顯然更喜歡使用獨立 GPU 而非神經處理單元 (NPU) 來運行本地生成式 AI 應用程序。這家顯卡巨頭可能會將其他公司的 NPU 視為一種威脅,因為自從其處理器成為運行大型語言模型的組成部分以來,該公司的收入猛增。

自去年年底推出 Meteor Lake CPU 以來,英特爾一直試圖將配備該處理器及其嵌入式 NPU 的筆記本電腦推向新型「AI PC」,旨在執行生成式 AI 操作,而無需依賴雲中的大規模數據中心。微軟和高通計劃在今年晚些時候將更多人工智能 PC 推向市場,蘋果預計在 2024 年推出即將推出的 M4 和 A18 仿生處理器,從而加入這一潮流。

微軟正試圖將其 Copilot 虛擬助手和新的 Copilot 鍵列為所有 AI PC 的要求,從而將其服務推廣為新趨勢的一部分。然而,英偉達認為自 2018 年以來上市的 RTX 顯卡更適合 AI 任務,這意味着 NPU 是不必要的,並且數百萬台「AI PC」已經在流通。

微軟聲稱,下一代 AI PC 需要達到每秒 40 萬億次操作 (TOPS) 的 AI 性能,但 Nvidia 的演示聲稱 RTX GPU 已經可以達到 100-1,300 TOPS。這家 GPU 製造商表示,像目前可用的 RTX 30 和 40 系列顯卡這樣的芯片是內容創建、生產力、聊天機器人以及涉及大量大型語言模型的其他應用程序的出色工具。對於此類任務,移動 GeForce RTX 4050 據稱可以超越蘋果的 M3 處理器,而桌面 RTX 4070 在 Stable Diffusion 1.5 中實現「旗艦性能」。

爲了展示其技術的獨特功能,Nvidia 推出了 ChatRTX 的重大更新。該聊天機器人由 Nvidia 的 TensorRT-LLM 提供支持,可在任何配備 RTX 30 或 40 系列 GPU 以及至少 8 GB VRAM 的 PC 上本地運行。ChatRTX 的與衆不同之處在於它能夠通過掃描用户提供的文檔或 YouTube 播放列表來回答多種語言的查詢。它與文本、pdf、doc、docx 和 XML 格式兼容。

當然,僅僅因為英偉達聲稱自己是板載人工智能性能的絕對領導者,並不意味着競爭對手就會認輸並説「你贏了」。相反,隨着各家公司試圖取代 Nvidia,NPU 市場的競爭和研發只會變得更加激烈。

韓國組聯盟,對抗英偉達

爲了對抗 Nvidia 的主導地位,Naver 和英特爾與韓國科學技術院 (KAIST) 合作,打造了一個新的人工智能 (AI) 半導體生態系統。

此次合作於 4 月 30 日在韓國科學技術院大田主校區鞏固,雙方建立了 Naver-英特爾-韓國科學技術院 AI 聯合研究中心(NIK AI 研究中心)。該協議包括該中心的建立和運營,重點開發人工智能半導體技術。

領導這個新中心的是韓國科學技術院電氣工程和計算機科學系的 Kim Jeong-ho 教授,他是人工智能半導體設計和人工智能應用(AI-X)領域的著名學者。來自 Naver Cloud 的 AI 半導體設計和 AI 軟件專家 Lee Dong-su 將共同領導該中心。

韓國科學技術院大約 20 名人工智能和軟件方面的專家以及 100 多名碩士和博士生將作為該中心的研究人員參與其中。雖然該中心最初設定運營三年,但根據成果和參與組織的需求,該期限可能會延長。

這一舉措標誌着全球半導體巨頭英特爾首次在韓國大學建立聯合研究中心,開發人工智能半導體軟件平臺。該中心旨在用兩年時間,共同為英特爾Habana Labs開發的人工智能訓練和推理芯片「Gaudi」打造平臺生態系統,承擔20至30個產學研項目。

Naver和英特爾將向韓國科學技術院聯合研究中心提供基於Naver Cloud平臺的「Gaudi2」。KAIST 研究人員將利用 Gaudi2 進行研究,每年發表研究論文。此外,雙方還將共享聯合研究所需的各種基礎設施和設備,並繼續開展人員交流等合作活動。

Kim Jeong-ho教授表示:「通過使用Gaudi系列,韓國科學技術院可以確保人工智能開發、半導體設計和操作軟件開發方面的技術知識。特別是,這個聯合研究中心的成立具有非常重要的意義,因為它使我們能夠獲得運營大型人工智能數據中心的經驗,併爲未來的研究和開發提供必要的人工智能計算基礎設施。」

Naver Cloud首席執行官Lee Dong-su表達了他的期望:「Naver Cloud與KAIST一起領導各種研究計劃,並希望擴大以‘HyperClova X’為中心的人工智能生態系統。」

本月早些時候,Naver和英特爾還在亞利桑那州鳳凰城舉行的英特爾Vision 2024上宣佈了在AI領域的合作。此前,AI開發者主要使用Nvidia的CUDA編程平臺,但英特爾和Naver建立自己的生態系統的舉動標誌着一個重大轉變。與 Naver 以及現在的 KAIST 的相繼合作被視為英特爾對韓國人工智能能力的高度重視。

參考鏈接

點這里 加關注,鎖定更多原創內容

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。