繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

「AI不是工具,是工人!」 英偉達GTC 2025,黃仁勛如是説

2025-11-03 10:30

「AI不是工具,是會用工具的工人。」

英偉達在華盛頓特區召開GTC(GPU技術大會),創始人兼CEO黃仁勛穿着標誌性的皮衣小跑上臺。

在這個由英偉達主辦的,探討人工智能、深度學習、自動駕駛等領域最新技術的,全球性的技術大會上,黃仁勛首次提出了這個顛覆性的AI理念。

這一認知轉變,從根本上重新定義了人類與技術的關係,也為英偉達的未來畫出了清晰的路線圖。

英偉達正向政策制定者證明,公司是美國技術棧的核心,限制其發展就是損害美國自身的利益。

黃仁勛甚至在小組討論中坦言,選擇華盛頓是爲了讓特朗普總統能夠出席。儘管總統當時正在亞洲訪問,但已計劃在第二天與黃仁勛會面。

英偉達重新定義AI產業

黃仁勛對AI的定義,遠不止於聊天機器人

他將AI的演進類比為一場編程範式的革命。

在CPU(中央處理器)時代,人類工程師手工編寫代碼、軟件在Windows系統上運行。

今天,機器學習模型直接在GPU上訓練和運行。

能源、GPU、超算、模型、應用,這條完整的技術棧構成了現代AI。

最關鍵的洞察在於對產業本質的剖析。

AI是工人。更準確地説,是會使用工具的工人。

這是歷史性的差異。

在此之前,人類發明的一切都是服務於自身的工具。但AI不同。這一次,技術本身開始學會自己干活。

當AI從工具轉變為工人,它就催生了一個全新的產業。

信息被編碼成tokens后,就需要一個AI工廠來處理它們。

這個工廠是什麼?就是AI的物理大腦,數據中心。

這種工廠與傳統數據中心不同,它的目標就是運行AI。就像人的大腦就是「運行」思想。

AI工廠只做兩件事: AI工廠只做兩件事:

生產儘可能有價值、更智能的token。

以極致的速度生產出來。

AI工人的誕生需要三大定律

驅動這一切的底層邏輯,是黃仁勛多次提到的三大擴展定律(Scaling Laws)。

這三條定律構成了英偉達內部一個強大的良性循環。

第一條是預訓練擴展(Pretraining Scaling)。

這是AI開發的元定律。

它揭示了一個可預測的關係:增加訓練數據量、模型參數和計算資源,模型的智能和準確性就會相應提升。數據、模型大小和計算三者相互關聯,更大的模型在更多數據的餵養下,性能會變得更強。

正是這條定律催生了萬億參數的Transformer模型、專家混合模型(MoE)和各種分佈式訓練技術,它們都極度渴求計算資源。

第二條是后訓練擴展(Post-training Scaling)。

預訓練一個巨大的基礎模型,投資巨大,門檻極高。但模型一旦發佈,其他人就可以在其基礎上進行微調,以適應自己的特定應用。這個過程極大地降低了AI的採用門檻。

后訓練過程催生了對加速計算的累積需求。

一個流行的開源模型,可能會衍生出成百上千個針對不同領域的變體。開發這些衍生模型所需的總計算量,可能是預訓練原始模型的30倍。

后訓練就像是把一個通才AI送到專門的職業學校,學習特定領域的技能。

技術手段包括微調、剪枝、量化、蒸餾和合成數據增強等,它們能有效提升模型在特定任務上的效率和準確性。

第三條是測試時擴展(Test-time Scaling)。

這條定律作用於推理階段,也被稱為長思考(long thinking)。

傳統的AI模型對用户提問,會迅速給出一個答案。

採用長思考技術的模型,則會在推理時投入額外的計算,在給出最終答案前,評估和推理多種可能的響應路徑。

在生成複雜代碼這類任務上,這個推理過程可能需要幾分鍾甚至幾小時。

對於一個極具挑戰性的問題,相比傳統大語言模型(LLM)一次性回答,它可能需要超過100倍的計算量,但最終得到正確答案的可能性也大大增加。

這種能力讓AI能夠探索不同的解決方案,逐步優化答案。

具體方法包括思維鏈提示,將複雜問題拆解成簡單步驟;或是多數投票採樣,生成多個回答后選擇出現頻率最高的那個。

測試時擴展解鎖了AI進行復雜、多步驟推理的能力,這是自主代理AI和物理AI應用的核心要求。

新一代AI工人的大腦構造

理解了AI工人的理念和驅動其發展的定律,我們再看英偉達發佈的硬件,就有了全新的視角。

故事要從九年前説起。

2016年,黃仁勛親手將世界上第一臺AI超級計算機DGX-1,交付給舊金山一家名為OpenAI的初創公司。

黃仁勛回憶道:在一家名為OpenAI的小型初創公司,我親手將第一臺系統交給了馬斯克從它誕生了ChatGPT,開啟了AI革命。

九年后的今天,在華盛頓的舞臺上,黃仁勛公佈了未來三年的GPU路線圖:從Blackwell,到Rubin,再到Feynman。

他激動地宣佈,距離發佈僅9個月,Blackwell芯片已在亞利桑那州全面量產。 他激動地宣佈,距離發佈僅9個月,Blackwell芯片已在亞利桑那州全面量產。

這直接回應了特朗普總統九個月前提出的要求:製造業迴流。

10月初,英偉達和臺積電宣佈,第一批Blackwell晶圓已在鳳凰城的工廠生產。基於Blackwell的系統也將在美國本土組裝。

而本次大會真正的明星,是下一代超級芯片Vera Rubin的首次亮相。

Vera Rubin是英偉達第三代NVLink 72機架級超級計算機,它徹底實現了無線纜連接。目前芯片已在實驗室完成測試,預計明年10月即可投產。

它的計算能力達到了驚人的100 Petaflops(FP4格式),恰好是九年前那臺DGX-1性能的100倍。

過去需要25個機架才能完成的任務,現在一個Vera Rubin機架就能勝任。

Vera Rubin超級芯片板本身的設計也極具革命性。

它摒棄了行業標準的有線連接器插槽,取而代之的是頂部的兩個NVLink背板連接器和底部的三個用於電源、PCIe、CXL的連接器。這種設計大幅提升了集成度和效率。

爲了應對AI模型日益增長的上下文需求,黃仁勛還介紹了一種全新的上下文處理器(Context Processor),支持超過100萬token的上下文。

這意味着AI在回答問題前,可以學習和閲讀成千上萬份PDF、論文和視頻。

與之配套的,還有革命性的BlueField-4處理器,用於加速AI模型加載;NVLink交換機,讓所有GPU同步傳輸數據;以太網交換機Spectrum-X,確保處理器間通信不擁堵。

所有這些組件被集成在一個機架中,零件總數高達150萬個,重達兩噸。

它的主干網絡每秒傳輸的數據量,相當於整個互聯網的流量,刷新了全球最快的token生成速度。

黃仁勛展望道:一個1GW規模的數據中心,大概需要8000到9000台這樣的機架。

這就是未來的AI工廠。

在摩爾定律趨於平緩的今天,單純堆砌晶體管已無法滿足AI指數級增長的算力需求。

英偉達的答案是極致協同設計(Extreme Co-design)。

英偉達是當今世界上唯一一家能從一張白紙開始,同時思考芯片、系統、軟件、模型和應用的公司。

這種協同設計,將AI算力實現了從縱向擴展(Scale up)到橫向擴展(Scale out),再到跨域擴展(Scale across)的全面飛躍。

黃仁勛再次上演了他的經典展示,手里拿着一塊由72塊GPU無縫互聯的巨型Grace Blackwell NVL72芯片板。

他開玩笑説,下次要扮演雷神,一伸手,芯片就自動飛到手里。

萬億參數的混合專家(MoE)模型。傳統系統受限於GPU間的互聯帶寬,一塊GPU要承載32位專家的計算量。在NVLink 72架構下,每塊GPU只需負責4位專家。

SemiAnalysis的基準測試顯示,Grace Blackwell每塊GPU的性能是H200的十倍。

晶體管數量只增加了一倍,性能卻提升了十倍,祕訣就在於極致協同設計。

因此,世界上最昂貴的計算機GB200,反而能生成成本最低的token。

它的極致性能,攤薄了每一次計算的總擁有成本(TCO)。

在三大擴展定律的驅動下,黃仁勛預測,到2026年底,僅憑Blackwell和Rubin兩代產品就足以衝擊5000億美元的營收。

后來公司澄清,這個數字是指2025至2026年兩代產品及網絡設備的總累計出貨量,預計未來五個季度的收入為3070億美元。

即便如此,這個數字依舊龐大,並且還未將中國市場計算在內。

全球六大雲服務商的資本支出(CapEx)曲線正以前所未有的速度飆升。

英偉達還宣佈與美國能源部合作,共建七個全新的AI超級計算機。 英偉達還宣佈與美國能源部合作,共建七個全新的AI超級計算機。

黃仁勛指出,這場變革是雙平臺遷移。

通用計算正轉向加速計算,工具計算正轉向智能計算。

而英偉達的GPU是唯一能同時兼容這兩大趨勢的架構。

算上已出貨的600萬塊Blackwell,未來兩年GPU出貨量預計將達到2000萬塊,是Hopper時代的5倍。

黃仁勛正在釋放一個強烈的信號:AI工廠已成為新時代的基礎設施。

AI工人開始進入各個行業

英偉達正將AI工人部署到通信、汽車、量子計算乃至物理世界。

在通信領域,英偉達與諾基亞達成合作,推出支持AI原生6G的加速計算平臺Aerial RAN Computer Pro(ARC-Pro)。

作為合作的一部分,英偉達將以每股6.01美元的價格向諾基亞投資10億美元。

消息宣佈后,諾基亞股價大漲20.86%。

ARC-Pro本質上是一個AI基站主機,融合了連接、計算和感知能力。運營商未來可以通過軟件升級,平滑地從5G-Advanced過渡到6G。

AI-RAN技術則讓無線通信處理和AI推理(如頻譜調度、節能控制)運行在同一套由GPU加速的軟件定義基礎設施上。

基站在處理通信任務的閒暇時間,還能承載生成式AI的邊緣服務,有效利用了閒置算力。

諾基亞將使用英偉達的Grace CPU、Blackwell GPU和網絡部件來構建這一新產品。

通過下一代6G網絡傳輸的AI,將能幫助操作機器人,或提供更精準的天氣預報。

在自動駕駛領域,英偉達推出了DRIVE AGX Hyperion 10平臺,一套開箱即用的L4級自動駕駛底座。

該平臺包括DRIVE AGX系統級芯片(SoC)、參考設計、操作系統、傳感器套件以及L2+級駕駛軟件棧。梅賽德斯-奔馳、JLR和沃爾沃等車企已率先採用。

最新版本的平臺將採用基於Blackwell架構的DRIVE AGX Thor SoC。

黃仁勛説:自動駕駛機器是最大的機器人市場之一。下一代自主機器將依賴物理AI世界基礎模型來理解和與現實世界互動,NVIDIA DRIVE正是為這個新時代而設計的。

DRIVE AGX Thor為Transformer、視覺-語言-動作(VLA)模型和生成式AI進行了特別優化。 DRIVE AGX Thor為Transformer、視覺-語言-動作(VLA)模型和生成式AI進行了特別優化。

它能處理數萬億英里的真實及合成駕駛數據,讓車輛不僅能識別紅綠燈,還能在無結構路口或面對突發狀況時,做出類似人類的判斷,例如理解交警的臨時手勢指揮。

這一切都在車上實時完成。

車企可以直接獲得可量產的參考架構和數據閉環,從而更快地將Robotaxi或無人配送車投入運營。

在量子計算領域,量子計算機的核心量子比特雖然潛力巨大,但在計算過程中極易出錯。

要讓它穩定工作,必須依賴一臺傳統超級計算機通過超低延迟的連接進行實時校準和糾錯。這條連接線,一直是量子計算走向實用的瓶頸。

英偉達為此推出了全新的互連技術NVQLink,它首次將量子處理器與AI超級計算機無縫連接,形成一個統一的混合系統。

硬件上,研究人員可以將不同技術路線的量子處理器直接連接到GPU超算上,避免了網絡延迟。 硬件上,研究人員可以將不同技術路線的量子處理器直接連接到GPU超算上,避免了網絡延迟。

軟件上,通過CUDA-Q編程接口,研究人員可以統一編排CPU、GPU和QPU(量子處理器),在一個平臺內完成仿真、控制和閉環。

生態上,英偉達聯合了9家美國實驗室和17家量子硬件公司,共同推動這一混合計算範式的發展。

加速量子超級計算。NVIDIA NVQLink提供了關鍵技術。

黃仁勛説:NVQLink是連接量子和經典超級計算機的羅塞塔石碑。它的出現,標誌着量子-GPU計算時代的正式開啟。

當AI走向應用的最后一公里,便進入了物理AI(Physical AI)的範疇。

黃仁勛一直認為,實現物理AI需要三臺計算機:一臺GPU超算用於訓練,一臺Omniverse計算機用於模擬,以及一臺機器人計算機用於執行。

這三臺計算機都運行着CUDA,共同推動AI理解物理世界、物理定律和因果關係。英偉達正與合作伙伴共同打造工廠級的物理AI,未來將有大量機器人在數字孿生的世界中工作。

Robotaxi,本質上也是一種機器人。

在構建完整生態方面,英偉達也在全力投入開源。

黃仁勛指出,開源AI在推理、多模態和蒸餾效率上取得了巨大飛躍,首次成為開發者手中真正實用的工具。

英偉達在全球開源貢獻榜上,有23個模型上榜,覆蓋語言、物理AI、語音、推理等所有領域。

黃仁勛説:我們擁有全球第一的語音模型、第一的推理模型、第一的物理AI模型。

這種全方位的開源佈局,讓英偉達不僅在硬件上佔據主導,更在軟件和模型層面建立了強大的護城河。 這種全方位的開源佈局,讓英偉達不僅在硬件上佔據主導,更在軟件和模型層面建立了強大的護城河。

從DGX-1到Vera Rubin,九年性能百倍。

從工具到工人,重塑產業認知。

從單一芯片到全棧生態,構建AI時代的基礎設施。

英偉達GTC 2025大會,宣告了一場深刻的範式革命已經到來。(AIGC開放社區)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。