熱門資訊> 正文
2025-10-29 08:52
來源:劃重點KeyPoints
作者 林易
編輯 重點君
10月29日,英偉達在華盛頓舉行GTC大會,黃仁勛在演講中再次強調摩爾定律(Moore‘s Law)已正式終結。當前是一個AI算力需求呈雙重指數級增長的時代,這一終結不僅是技術的瓶頸,更是一場新的計算競賽的起點。
英偉達在此次GTC上交付了一套完整的AI工業革命基礎設施。從Grace BlackwellGB200到到NVLink-72全互聯機架,再到Omniverse DSX數字孿生工廠,英偉達的戰略核心是:通過「極致協同設計」(Extreme Co-Design)來打破物理定律的限制,將AI推理(Inference)這個新的計算核心成本降至最低,從而持續驅動AI工業發展的良性循環。
黃仁勛的演講主要包含以下幾個方面:
1、算力新經濟:推理成本的極致壓縮
英偉達的新架構,建立在一個新的算力洞察之上:AI模型從「預訓練」邁向「后訓練」和更高階的思考階段,對算力的需求呈爆炸式增長。特別是「思考」過程,需要AI在每次互動中處理上下文、分解問題、規劃和執行,這使得推理任務變得空前複雜和耗費資源。
在摩爾定律失效的背景下,解決雙重指數級增長的算力需求,只能依靠「極致協同設計」。Blackwell架構不再將GPU視為獨立單元,而是通過NVLink72互聯結構,將72顆GPU整合為一個虛擬的超級GPU。相比上一代,GB200在推理性能上實現了驚人的10倍提升。
極致性能帶來的是最低的Token生成成本。儘管GB200是最昂貴的架構之一,但其每秒Token產出率帶來的總擁有成本(TCO)最低。這是驅動AI良性循環的關鍵經濟槓桿。英偉達已經規劃了下一代架構Rubin,以確保算力性能的指數級增長和成本的指數級下降。
2、從芯片到工廠:基礎設施的生態圈化
英偉達正在將「數據中心」轉變為「AI工廠」。這種工廠只生產一種產品:有價值的Token。英偉達推出了Omniverse DSX,這是一個用於設計、規劃和運營吉瓦級AI工廠的藍圖與數字孿生平臺。
DSX讓西門子、施耐德電氣等合作伙伴,能在虛擬的Omniverse中協同設計計算密度、佈局、電力和冷卻系統。這種設計優化,對於一個1吉瓦的AI工廠而言,每年可帶來數十億美元的額外收入,極大地縮短了建設時間和上市周期。
在系統層面,英偉達的ConnectX和BlueField DPU(數據處理器)也進行了深度協同設計。全新的ConnectX9 Super NIC和Spectrum-X以太網交換機,專為AI高性能設計,確保了大規模GPU間的通信不會成為網絡瓶頸。
新一代BlueField-4 DPU被定位為「上下文處理器」,專門用於處理AI所需的巨大上下文,例如讀取大量PDF、論文或視頻后回答問題,並加速KV緩存,解決當前AI模型在處理長對話歷史時越來越慢的問題。
3、跨越邊界:進軍物理AI與核心工業
英偉達的意圖將其核心技術擴展到「物理AI」(Physical AI)的實體經濟維度。
在電信領域,英偉達與諾基亞(Nokia)建立了深度合作,共同發佈了NVIDIA ARC平臺。ARC將NVIDIA的Grace CPU、Blackwell GPU和ConnectX網卡結合,運行Aerial CUDA-X庫,旨在打造軟件定義的可編程無線通信系統。ARC還能實現AI on RAN,將AI雲計算推向最靠近用户的無線電邊緣,為工業機器人和邊緣應用提供基礎設施。
人形機器人被視為未來最大的消費電子和工業設備市場之一。英偉達是Figure等頂級機器人公司的核心合作伙伴,提供訓練、模擬和運行的全部平臺。此外,與迪士尼合作開發的機器人,展示了在物理感知環境中進行訓練的潛力。
在自動駕駛領域,NVIDIA DRIVE Hyperion平臺將環繞攝像頭、雷達和激光雷達標準化,使其成為一個「輪式計算平臺」。英偉達宣佈與優步(Uber)合作,將這些Drive Hyperion就緒的車輛接入全球網絡,為Robo-Taxi的全球化部署奠定基礎。
在基礎科學領域,英偉達發佈了CUDA-Q平臺和NVQLink互聯架構,目標是將GPU超級計算與量子處理器(QPU)直接連接。這種混合架構用於量子錯誤校正和協同模擬,被美國能源部(DOE)的各大國家實驗室廣泛採用。
4、企業AI與生態系統的戰略性覆蓋
黃仁勛認為,AI的本質是「工作者」(Workers),而不是「工具」(Tools)。AI能夠使用工具,這使其能夠參與到此前IT工具無法觸及的100萬億美元的全球經濟中。
爲了將AI工作者部署到企業核心業務中,英偉達宣佈了兩項重量級合作:
第一,攜手網絡安全巨頭CrowdStrike,共同打造基於雲端和邊緣的AI網絡安全代理,以應對AI帶來的新安全威脅,要求速度必須達到「光速」。
第二,與Palantir合作,加速其Ontology平臺的數據處理能力,為政府和企業提供更大規模、更快速的商業洞察。
英偉達還將CUDA-X庫集成到SAP、ServiceNow、Synopsys等關鍵企業SaaS平臺中,將這些工作流程轉化為「代理式SaaS」(Agentic SaaS)。
此次GTC,英偉達完成了從芯片公司到AI工業平臺領導者的徹底重塑,通過一套完整的架構、網絡、工廠和行業延伸,試圖定義新一輪工業革命的底層標準。
以下為黃仁勛演講實錄:
1、開場:擁抱計算新紀元
華盛頓特區!歡迎來到GTC。很難不對美國感到感性和自豪,我得告訴你這件事。那段視頻太棒了!謝謝。英偉達的創意團隊表現出色。
歡迎來到GTC,今天我們將與您深入探討諸多議題。GTC是我們討論行業、科學、計算、當下與未來的地方。所以今天我有很多事情要和你討論,但在開始之前,我想感謝所有贊助這場精彩活動的合作伙伴。你會在展會現場看到所有這些產品,他們來這里是爲了見你,真的很棒。沒有我們生態系統中所有合作伙伴的支持,我們無法完成我們的工作。
這可是AI界的超級碗,人們説。因此,每屆超級碗都應該有一場精彩的賽前表演。大家覺得賽前節目怎麼樣?還有我們所有明星運動員和明星陣容。瞧瞧這幫家伙。不知怎的,我竟成了最壯實的那一個。你們覺得呢?我不知道我是否與此有關。
英偉達開創了六十年來首個全新計算模型,正如你在視頻中所見。新的計算模型很少出現。這需要大量的時間和一系列條件。我們觀察到,我們發明了這種計算模型,因為我們想要解決通用計算機無法處理的問題。普通計算機無法做到。我們還注意到,總有一天晶體管將繼續發展。晶體管的數量將會增加,但晶體管的性能和功率提升速度將放緩。摩爾定律不會無限延續,它終將受到物理定律的限制。而此刻,終於來臨了。丹納德縮放效應已停止,它被稱為丹納德縮放效應。丹納德縮放定律已於近十年前停止,事實上,晶體管性能及其相關功率的提升已大幅放緩。然而,晶體管的數量仍在持續增加。我們觀察到這一點已經很久了。
應用並行計算,將其與順序處理的CPU結合,我們就能將計算能力擴展到遠超以往的水平。遠遠超出。而那一刻真的到來了。我們現在已經看到了那個拐點。加速計算的時代已然來臨。然而,加速計算是一種根本不同的編程模型。你不能直接拿CPU軟件,那些是手工編寫的軟件,順序執行,並將其部署到GPU上確保正常運行。事實上,如果你只是那樣做了,它實際上運行得更慢。因此你必須重新設計新的算法。你必須創建新的庫。事實上,你必須重寫該應用程序。這就是為什麼花了這麼長時間的原因。我們花了近三十年才走到今天這一步。但我們是一步一個腳印地完成的。
這是我們公司的瑰寶。大多數人都在談論GPU。GPU固然重要,但若沒有在其之上構建的編程模型,若不致力於該編程模型,就無法確保其在不同版本間保持兼容性。我們現在正推出CUDA 13,並即將推出CUDA 14。數以億計的GPU在每台計算機中運行,完全兼容。如果我們不這樣做,那麼開發者就不會選擇這個計算平臺。如果我們不創建這些庫,那麼開發者就不知道如何使用該算法,也無法充分發揮該架構的潛力。一個接一個的申請。這確實是我們公司的瑰寶。
CuLitho,計算光刻技術。我們花了近七年時間才與cuLitho走到今天這一步,現在臺積電也用它,三星也用它,ASML使用它。這是一座令人驚歎的計算庫。光刻,芯片製造的第一步。CAE應用中的稀疏求解器。cuOpt,一款幾乎打破所有紀錄的數值優化工具。旅行推銷員問題,如何在供應鏈中將數百萬種產品與數百萬客户連接起來。Warp,用於CUDA的Python求解器,用於仿真。cuDF,一種基於數據框的方法,本質上是加速SQL,數據框專業版-數據框數據庫。這個庫,正是開啟AI的起點,cuDNN,位於頂部的名為Megatron Core的庫使我們能夠模擬和訓練超大規模語言模型。這樣的例子不勝枚舉。
MONAI,非常重要,是全球排名第一的醫學影像AI框架。順便説一句,今天我們不會過多討論醫療保健問題。但一定要去聽金伯利的主題演講。她會詳細介紹我們在醫療保健領域開展的工作。這樣的例子不勝枚舉。基因組學處理,Aerial,注意聽,今天我們要做一件非常重要的事。量子計算。這只是我們公司350個不同庫的代表之一。這些庫中的每一個都重新設計了加速計算所需的算法。這些庫的出現,使得整個生態系統的所有合作伙伴都能利用加速計算的優勢。這些庫中的每一家都為我們開拓了新的市場。
讓我們來看看CUDAx能做什麼。
這很棒嗎?你所見的一切都是仿真。沒有藝術,沒有動畫。這就是數學的魅力所在。這是深奧的計算機科學,深奧的數學,它美得簡直令人難以置信。涵蓋了所有行業,從醫療保健到生命科學,製造業、機器人技術、自動駕駛汽車、計算機圖形學,甚至電子遊戲。你所見到的第一張截圖,正是NVIDIA首次運行的應用程序。而這正是我們1993年起步的地方。而我們始終堅信着自己所追求的目標,它生效了。很難想象你竟能親眼見證那個最初的虛擬格鬥場景躍然眼前,而那家公司也相信我們今天會在這里。這真是一段無比精彩的旅程。我要感謝所有英偉達員工所做的一切。這真是太不可思議了。
今天我們要涵蓋的行業很多。我將涵蓋AI、6G、量子技術、模型、企業計算、機器人技術和工廠。讓我們開始吧。我們有很多內容要討論,還有許多重大消息要宣佈。許多新夥伴會讓你大吃一驚。
2、加速計算崛起
電信是經濟的脊樑,是經濟的命脈。我們的產業,我們的國家安全。然而,自無線技術誕生之初,我們便定義了這項技術,我們制定了全球標準,我們將美國技術輸出到世界各地,使世界能夠基於美國技術和標準進行發展。那件事已經過去很久了。當今全球無線技術主要依賴於國外技術。我們的基礎通信架構建立在外國技術之上。這種情況必須停止,而我們正有機會做到這一點。尤其是在這個根本性的平臺轉型期間。衆所周知,計算機技術是支撐所有行業的基石。這是科學最重要的工具。這是工業領域最重要的單一工具。我剛纔説我們正在經歷平臺轉型。這次平臺轉型,應當是我們重返賽場千載難逢的機會。讓我們開始運用美國技術進行創新。
今天,我們宣佈我們將採取行動。我們與諾基亞建立了重要的合作伙伴關係。諾基亞是全球第二大電信設備製造商。這是一個價值3萬億美元的產業。基礎設施投資高達數千億美元。全球有數百萬個基站。如果我們能夠建立合作伙伴關係,就能基於這項以加速計算和AI為核心的非凡新技術進行創新發展。而對於美國而言,要讓美國成為下一輪6G革命的核心。
因此,今天我們宣佈英偉達推出了一條全新產品線。它被稱為NVIDIA ARC,即空中無線電網絡計算機。空中RAN計算機,ARC。ARC由三項基礎性新技術構建而成:Grace CPU、Blackwell GPU以及我們的Mellanox ConnectX網絡解決方案專為該應用設計。所有這些使我們能夠運營這座庫,我之前提到的這個名為Aerial的CUDA X庫。Aerial本質上是在CUDAX之上運行的無線通信系統。我們將要首次創造一種軟件定義的可編程計算機,能夠同時進行無線通信和AI處理。這完全是革命性的。我們稱之為NVIDIA ARC。
諾基亞將與我們合作,整合我們的技術。重寫他們的棧。這是一家擁有7,000項5G核心基礎專利的公司。很難想象還有比他更傑出的電信業領袖了。因此我們將與諾基亞建立合作伙伴關係。他們將把NVIDIA ARC作為未來的基站。NVIDIA ARC還兼容AirScale,即當前諾基亞的基站系統。這意味着我們將採用這項新技術,能夠在全球範圍內升級數百萬個基站,實現6G和AI的升級。如今6G和AI確實具有根本性意義,因為它們首次實現了我們將能夠使用AI技術,即面向無線接入網的AI技術。提高無線電通信的頻譜效率。利用AI,採用強化學習,實時調整波束成形,在具體情境中,取決於周邊環境、交通狀況以及移動出行方式、天氣。所有這些因素都可納入考量,從而提升頻譜效率。頻譜效率消耗約全球1.5%至2%的電力。因此,提高頻譜效率不僅能提升無線網絡傳輸數據的能力,同時無需增加所需的能量消耗。
我們還能做另一件事,即為無線接入網提供AI支持。是AI-on-RAN。這是一個全新的機遇。請記住,互聯網實現了通信,但真正了不起的是那些聰明的公司。亞馬遜雲科技在互聯網基礎上構建了雲計算系統。我們現在要在無線通信網絡上實現同樣的功能。這片新雲將成為邊緣工業機器人云。此處指的是AI-on-RAN。首項是AI-for-RAN,提升無線電性能、提高無線電頻譜效率,第二是基於AI的無線接入網,本質上是無線通信領域的雲計算。雲計算將能夠直接延伸至邊緣區域,即沒有數據中心的地方。並非如此,因為我們在全球各地都設有基站。這個消息真是令人興奮。
讓我們來談談量子計算。1981年,粒子物理學家、量子物理學家理查德·費曼構想了一種新型計算機,能夠直接模擬自然。因為自然本身就是量子化的。他稱之為量子計算機。40年后,該行業實現了根本性突破。40年后,就在去年,實現了根本性突破。現在可以製造一個邏輯量子比特,一個保持相干性的邏輯量子位,穩定,且錯誤已修正。過去,一個邏輯量子比特由有時可能是10個,有時可能是數百個物理量子比特協同工作。衆所周知,量子比特這些粒子極其脆弱。它們很容易變得不穩定。任何觀察、任何採樣行為、任何環境條件都會導致其失相干。因此需要極其嚴格控制的環境。
如今,還有許多不同類型的物理量子比特,它們協同工作,讓我們能夠對這些量子比特進行糾錯。所謂的輔助量子位或綜合量子位,供我們進行錯誤糾正並推斷其邏輯量子位狀態。存在各種不同類型的量子計算機,超導、光子學、囚禁離子、穩定原子,各種不同的方法來製造量子計算機。現在我們意識到,必須將量子計算機直接連接到GPU超級計算機,這樣才能進行錯誤糾正。以便我們能夠對量子計算機進行AI校準與控制,以便我們能夠共同進行模擬,協同工作,在GPU上運行的正確算法,在QPU上運行的正確算法,以及這兩種處理器,兩臺計算機並排工作。這就是量子計算的未來。
(視頻內容:讓我們來看看。構建量子計算機的方法有很多。每種都採用量子比特作為其核心構建單元。但無論採用何種方法,所有量子比特,無論是超導量子比特、囚禁離子還是中性原子或光子,面臨相同的挑戰。它們非常脆弱,對噪音極其敏感。當前的量子比特僅能穩定運行數百次操作。但解決有意義的問題需要數萬億次運算。答案是量子糾錯。測量會擾動量子比特,從而破壞其內部的信息。訣竅在於添加額外的量子比特,並使它們處於糾纏態。這樣,測量它們就能為我們提供足夠的信息來計算錯誤發生的位置,同時不會損壞我們關心的量子比特。它非常出色,但需要超越最先進的常規計算能力。
正因如此,我們打造了NVQLink,一種全新的互連架構,可將量子處理器與英偉達GPU直接連接。量子糾錯需要從量子比特中讀取信息,計算錯誤發生的位置,並將數據發送回去進行修正。NVQLink能夠以每秒數千次的頻率,在量子硬件與外部設備之間傳輸數千兆字節的數據,以滿足量子糾錯所需的高速數據傳輸需求。其核心是CUDA-Q,我們面向量子GPU計算的開放平臺。藉助NVQ-Link和CUDA-Q,研究人員將能夠實現超越錯誤糾正的功能。他們還將能夠協調量子設備和AI超級計算機來運行量子GPU應用程序。量子計算不會取代經典系統。它們將協同工作,融合爲一個加速的量子超級計算平臺。)
要知道,CEO們可不是整天坐在辦公桌前打字的。這是體力活,純粹的體力活。因此,今天我們宣佈推出NVQLink。其實現得益於兩點:當然,這個用於量子計算機控制和校準的互連繫統,量子糾錯,以及連接兩臺計算機,利用QPU和我們的GPU超級計算機進行混合仿真。它還具有完全的可擴展性。它不僅能為當前數量有限的量子比特執行糾錯操作,它為明日的錯誤糾正做準備,屆時我們將把量子計算機從如今的數百量子比特擴展到數萬量子比特。未來將擁有數十萬個量子比特。因此,我們現在擁有了一套能夠實現控制的架構,協同激發、量子糾錯與未來擴展。
業界的支持令人難以置信。在CUDA-Q發明之前,請記住,CUDA原本是為GPU、CPU和加速計算設計的,基本上是同時使用兩個處理器來完成一一用對工具做對事。如今,CUDA-Q已擴展至CUDA之外,從而能夠支持QPU,使兩種處理器協同工作。QPU與GPU協同工作,計算任務在兩者之間往返傳遞,耗時僅數微秒,實現與量子計算機協同運作所需的基本延迟。如今,CUDA-Q已成為一項了不起的突破性技術,被眾多不同領域的開發者所採用。我們今日宣佈,共有17家量子計算機行業公司支持NVQLink。而且我對此感到非常興奮。
八個不同的美國能源部實驗室:伯克利實驗室、布魯克海文實驗室、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺、太平洋西北、桑迪亞國家實驗室。幾乎所有美國能源部的實驗室都與我們展開合作,攜手量子計算機公司生態系統及量子控制器供應商,將量子計算逐步融入科學發展的未來藍圖。
我們正在經歷幾次平臺轉型。一方面,我們正經歷着加速計算的發展,這就是為什麼未來的超級計算機都將基於GPU。我們將轉向AI,使AI與基於原理的求解器、基於原理的模擬協同工作。基於原理的物理模擬不會消失,但它可以被增強、強化、擴展,使用代理模型、AI模型。
我們還知道,通過基於原理的求解器,經典計算能夠藉助量子計算來增強對自然狀態的理解。我們也知道,未來我們擁有如此多的信號,必須從世界中採樣如此多的數據,遙感技術的重要性已達到前所未有的高度。除非這些實驗室成為自動化工廠,否則它們根本無法以我們所需的規模和速度進行實驗,成為機器人實驗室。因此,所有這些不同的技術正同時湧入科學領域。
3、極致協同設計,重塑AI算力經濟
我們來聊聊AI吧。什麼是AI?大多數人會説AI就是聊天機器人,嗯,這完全是理所當然的。毫無疑問,ChatGPT正處於人們所認為的AI的前沿。然而,正如你此刻所見,這些科學超級計算機不會運行聊天機器人,他們將從事基礎科學研究。
科學AI的世界遠比想象中更廣闊,遠不止是一個聊天機器人。當然,聊天機器人極其重要,而通用AI則具有根本性的關鍵意義。深層計算機科學、非凡的計算能力以及重大突破,仍是實現AGI的關鍵要素。但除此之外,AI還有更多可能。
實際上,我將用幾種不同的方式來描述AI。第一種方式,即人們最初對AI的認知,是它徹底重構了計算棧。我們過去做軟件的方式是手工編碼,在CPU上運行手工編碼軟件。如今,AI就是機器學習、訓練,或者説數據密集型編程,由在GPU上運行的AI訓練和學習而成。為實現這一目標,整個計算棧已發生改變。
注意,你在這兒看不到windows,也看不到CPU。你看到的是完全不同的、從根本上截然不同的架構。
在能源之上還有這些GPU。這些GPU被連接到、集成到我稍后將展示的基礎設施中。在這項基礎設施之上——它由巨型數據中心構成,其規模輕松達到這個房間的數倍之多。巨大的能量隨后通過名為GPU超級計算機的新設備轉化,從而生成數據。這些數字被稱為tokens。
語言,也就是計算的基本單位,是AI的詞匯表。幾乎任何東西都可以進行tokens化。當然,你可以對英語單詞進行分詞處理,你可以對圖像進行分詞處理,這就是你能夠識別圖像或生成圖像的原因。對視頻進行分詞,對3D結構進行分詞。你可以對化學物質、蛋白質和基因進行tokens化處理,你可以對單元格進行tokens化處理,將具有結構的幾乎任何事物、具有信息內容的任何事物進行分詞處理。
一旦能夠將其tokens化,AI就能學習該語言及其含義。一旦它學會了那種語言的含義,它就能翻譯,它能迴應,就像你與ChatGPT互動那樣,它能生成內容。因此,你所看到ChatGPT所做的一切基礎功能,你只需想象一下,如果它是一種蛋白質會怎樣?如果它是一種化學物質呢?如果它是一個3D結構,比如工廠呢?如果它是一個機器人,而tokens是理解行為並將其轉化為動作和行為的標記呢?所有這些概念基本上是一樣的。這正是AI取得如此非凡進展的原因。
在這些模型之上還有應用程序。Transformers是一個極其有效的模型,但並不存在放之四海皆準的通用模型。只是AI具有普遍影響。模型種類繁多。在過去的幾年里,我們享受了發明帶來的樂趣,並經歷了創新的洗禮,例如多模態的突破。有這麼多不同類型的模型,有CNN模型(卷積神經網絡模型),有狀態空間模型,也有圖神經網絡模型,多模態模型,當然,還包括我剛纔描述的所有不同的分詞方式和分詞方法。
你可以構建在理解層面具有空間特性、針對空間感知能力進行了優化的模型。你可以擁有針對長序列進行優化、在較長時間內識別微妙信息的模型。有如此多不同類型的模型。在這些模型之上,還有構建在這些模型架構之上的架構——這些就是應用程序。
過去的軟件產業致力於創造工具。Excel是一個工具,Word是一款工具,網頁瀏覽器是一種工具。我之所以知道這些是工具,是因為你使用它們。工具行業,正如螺絲刀和錘子,其規模有限。就IT工具而言,它們可以是數據庫工具,這些IT工具的價值約為一萬億美元左右。
但AI並非工具,AI是工作,這就是本質上的區別。AI實際上就是能夠真正使用工具的勞動者。我特別興奮的一件事,就是歐文在Perplexity公司開展的工作。Perplexity使用網頁瀏覽器預訂假期或購物,本質上就是一個使用工具的AI。Cursor是一款AI系統,是我們在英偉達使用的具有自主決策能力的AI系統。英偉達的每位軟件工程師都在使用Cursor,它極大地提高了我們的生產效率。它基本上是每位軟件工程師的代碼生成助手,並且它使用了一個工具,它使用的工具名為VSCode。因此,Cursor 是一個基於VSCode的智能代理式AI系統。
所有這些不同的行業,無論是聊天機器人、數字生物學、AI助手研究員,還有在自動駕駛出租車內,當然,AI司機是無形的。但顯然有一個AI司機在工作,而他完成這項工作的工具就是汽車。因此,我們迄今為止所創造的一切,整個世界,我們迄今為止創造的一切,都是工具,供我們使用的工具。技術如今首次能夠承擔工作,並幫助我們提高生產力。機遇清單源源不斷,這正是AI能夠觸及IT從未涉足的經濟領域的原因。
IT是支撐着100萬億美元全球經濟的工具之下,藴藏着數萬億美元價值的基石。如今,AI將首次參與這100萬億美元的經濟體,並提升其生產力,讓它增長得更快,變得更大。我們面臨嚴重的勞動力短缺問題,擁有能夠增強勞動力的AI將助力我們實現增長。
從科技產業的角度來看,這點同樣耐人尋味:除了AI作為新興技術正在開拓經濟新領域之外,AI本身也是一種新興產業。正如我先前所解釋的,這個tokens,這些數字,在你將所有不同模態的信息進行分詞處理之后,有一家工廠需要生產這些數字。
與過去的計算機行業和芯片行業不同,如果你回顧過去的芯片行業,芯片行業約佔數萬億美元IT 產業的5%至10%,可能更少。原因在於,使用Excel、使用瀏覽器、使用Word並不需要太多的計算量。我們進行計算,但在這個新世界里,需要一臺始終理解上下文的計算機。它無法預先計算出結果,因為每次你用電腦進行AI操作時,每次你讓AI做某事時,上下文都不同,因此它必須處理所有這些信息。
例如自動駕駛汽車的情況,它必須處理車輛的上下文信息,進行上下文處理。你要求AI執行什麼指令?然后它必須一步一步地分解問題,思考此事,制定計劃並付諸實施。該步驟中的每個操作都需要生成大量tokens。這就是為什麼我們需要一種新型系統的原因,我稱之為AI工廠。這絕對是個AI工廠。
它與過去的數據中心截然不同。這是一座AI工廠,因為這座工廠只生產一種東西。不同於過去包攬一切的數據中心——為我們所有人存儲文件,運行各種不同的應用程序,你可以像使用電腦一樣使用該數據中心,運行各種應用程序,你某天可以用它來玩遊戲,可以用它來瀏覽網頁,可以用它來做賬。因此,那是一臺屬於過去的計算機,一臺通用計算機。
我在此所説的計算機是一座工廠,它基本上只運行一件事。它運行AI,其目的在於生成價值最大化的tokens。這意味着他們必須聰明。而你希望以驚人的速度生成這些tokens,因為當你向AI提出請求時,你希望它做出迴應。請注意,在高峰時段,這些AI的響應速度正變得越來越慢,因為它要為很多人做很多工作。因此你希望它能以驚人的速度生成有價值的tokens,而你希望它能以經濟高效的方式實現。我使用的每個詞都符合AI工廠的特徵,與汽車廠或任何工廠一樣。這絕對是工廠,而且這些工廠以前從未存在過。而這些工廠里堆積着成山的芯片。
這便引出了今天。過去幾年發生了什麼?事實上,去年發生了什麼?其實今年確實發生了一件相當深刻的事情。若你回顧年初,每個人對AI都有自己的看法。這種態度通常是:這會是個大事件,那將是未來。而幾個月前,不知怎麼的,它啟動了渦輪增壓。
原因有以下幾點。第一點是,在過去的幾年里,我們已經摸清了如何讓AI變得聰明得多。與其説只是預訓練,不如説預訓練本質上表明:讓我們把人類創造過的所有信息都拿出來,讓我們把它交給AI來學習吧,本質上就是記憶和概括。這就像我們小時候上學一樣,學習的第一階段。預訓練從來就不是終點,正如學前教育也從來不是教育的終點。
學前教育,本質上就是培養你掌握智力發展的基礎技能,讓你懂得如何學習其他一切知識。沒有詞匯量,不理解語言及其表達方式,如何思考,這是無法學到其他一切的。接下來是培訓后階段。培訓之后,在培訓之前,是傳授你解決問題的技能,分解問題,思考它,如何解決數學問題,如何編寫代碼,如何逐步思考這些問題,運用第一性原理推理。而之后纔是計算真正發揮作用的階段。
衆所周知,對我們許多人來説,我們去上學了,就我而言,那是幾十年前的事了。但自那以后,我學到了更多,思考得也更深了。而原因在於我們始終在不斷汲取新知識來充實自己。我們不斷進行研究,也持續思考。思考纔是智力的真正本質。
因此,我們現在擁有三項基礎技術能力。我們擁有這三項技術:預訓練,仍需投入巨大資源,海量的計算量。我們現在有后訓練,它使用了更多的計算資源。而如今,思考給基礎設施帶來了難以置信的計算負荷,因為它在為我們每個人代勞思考。因此,AI進行思考所需的計算量,這種推論,實在相當非凡。
以前我常聽人説推理很容易,英偉達應該進行培訓。NVIDIA要搞的,你知道的,他們在這方面真的很厲害,所以他們要進行培訓,這個推論很簡單。但思考怎麼可能容易?背誦記憶的內容很容易,背誦乘法表很容易。思考是艱難的,這正是這三把尺子的緣由。這三條新的標度律,即全部內容都在其中全速運轉,給計算量帶來了巨大壓力。
現在又發生了另一件事。從這三條標度律中,我們獲得了更智能的模型。而這些更智能的模型需要更強的計算能力。但當你獲得更智能的模型時,你便獲得了更高的智能水平,人們使用它。你的模型越聰明,使用的人越多。現在它更接地氣了,它能夠進行推理。它能夠解決以前從未學過如何解決的問題,因為它能做研究,去了解它,回來拆解它,思考如何解決你的問題,如何回答你的問題,然后去解決它。思考的深度正使模型變得更智能。它越智能,使用的人就越多。它越智能,就需要進行越多的計算。
但事情是這樣的。過去一年,AI行業迎來了轉折點。這意味着AI模型如今已足夠智能,他們正在創造價值,他們值得為此付費。NVIDIA為每份Cursor許可證付費,我們樂意如此。我們樂意為之,因為Cursor正助力身價數十萬美元的軟件工程師或AI研究員實現多重價值,效率高出許多倍。當然,我們非常樂意為您效勞。這些AI模型已經足夠優秀,值得為此付費。Cursor、ElevenLabs、Synthesia、Abridge、OpenEvidence,名單還在繼續。當然,OpenAI,當然,Claude。這些模型如今如此出色,人們為此付費。
而且因為人們正在為此付費並使用得更多,每次他們使用更多時,你需要更多計算能力。我們現在有兩個指數函數。這兩個指數,其中一個是三階縮放定律中的指數計算需求。第二個指數函數是,模型越聰明,使用的人越多,使用的人越多,它需要的計算量就越大。
兩個指數級增長的趨勢正對全球計算資源施加壓力,而就在不久前我才告訴過你們,摩爾定律已基本終結。那麼問題來了,我們該怎麼辦?如果我們有這兩項指數級增長的需求,如果我們找不到降低成本的方法,那麼這個正反饋系統,這個本質上稱為良性循環的循環反饋系統——對幾乎所有行業都至關重要,對任何平臺型行業都至關重要——就可能無法持續。
這對英偉達至關重要。我們現已進入CUDA的虛擬周期。應用程序越多,人們創建的應用程序越多,CUDA就越有價值。CUDA越有價值,購買的CUDA計算機就越多。購買的CUDA並行計算機越多,越來越多的開發者希望為其創建應用程序。經過三十年的發展,英偉達終於實現了這一虛擬循環。十五年后,我們終於在AI領域實現了這一目標。AI現已進入虛擬循環階段。
因此你用得越多,因為AI很聰明,而我們為此付費,產生的利潤就越多。產生的利潤越多,投入的計算資源就越多。在電網中,投入到AI工廠的計算資源越多,計算能力越強,AI變得越來越聰明。越聰明,使用它的人越多,使用它的應用程序就越多,我們能解決的問題就越多。
這個虛擬循環正在運轉。我們需要做的是大幅降低成本。因此,其一,用户體驗得以提升,當你向AI發出指令時,它會更快地作出響應。其二,通過降低其成本來維持這個虛擬循環的運轉,以便它能變得更智能,以便更多人會使用它,諸如此類。那個虛擬循環正在運轉。
但當摩爾定律真的達到極限時,我們該如何突破呢?答案就是極致協同設計。你不能僅僅設計芯片,就指望在芯片上運行的東西會變得更快。在芯片設計中,你所能做的最好就是添加——我不知道,每隔幾年晶體管數量就會增加50%。如果你再增加更多晶體管的話……你知道嗎,我們可以擁有更多的晶體管,臺積電是一家了不起的公司,我們只會繼續增加更多晶體管。
然而,這些都是百分比,而非指數增長。我們需要複合指數增長來維持這個虛擬循環的運轉。我們稱之為極致協同設計。
4、從數據中心到「AI工廠」的進化
英偉達是當今世界上唯一一家能夠真正從一張白紙開始,構思全新基礎架構的公司,包括計算機架構、新型芯片、新型系統、新型軟件、新型架構、新型應用程序,同時兼顧。在座的許多人之所以在此,是因為你們都是那層結構的不同組成部分,在與NVIDIA合作時,是該堆棧的不同部分。我們從根本上重新構建了所有架構。
然后,由於AI是一個如此龐大的問題,我們擴大規模。我們打造了一臺完整的計算機,這是首臺能夠擴展至整機架規模的計算機。這台計算機配備單張GPU,隨后我們通過發明名為Spectrum-X的新型AI以太網技術實現橫向擴展。
人人都説以太網就是以太網。但以太網根本算不上以太網。Spectrum-X以太網專為AI性能而設計,這正是它如此成功的原因。即便如此,那也不夠大。我們將用AI超級計算機和GPU 填滿整個房間。這仍然不夠大,因為AI的應用數量和用户數量正在持續呈指數級增長。
我們將多個這樣的數據中心相互連接起來,我們稱之為Spectrum-XGS的規模——Giga Scale X-Spectrum。通過這樣做,我們在如此巨大的層面上進行協同設計,達到如此極致的程度,其性能提升令人震驚,並非每代提升50%或25%,但遠不止於此。
這是我們迄今為止打造的最極致的協同設計計算機,坦率地説,是現代製造的。自IBM System/360 以來,我認為還沒有哪臺計算機像這樣被徹底重新設計過。這個系統的創建過程極其艱難。
我馬上讓你見識它的妙處。但本質上我們所做的,好吧,這有點像美國隊長的盾牌。所以NVLink72,如果我們要製造一枚巨型芯片,一塊巨型 GPU,它看起來會是這樣。這就是我們必須進行的晶圓級加工的程度,太不可思議了。
所有這些芯片現在都被裝入一個巨大的機架中。是我乾的還是別人乾的?放入那個巨大的架子…… 你知道嗎,有時候我覺得自己並不孤單。僅憑這組巨型支架,便使所有芯片協同運作,渾然一體。這簡直令人難以置信,我這就向你展示其中的好處。情況是這樣的。所以…… 謝謝,珍妮。我——我喜歡這個。嗯。好的。女士們、先生們,賈妮娜·保羅。哇!明白了。在未來……
接下來,我就像雷神那樣去干。就像你在家里,卻夠不到遙控器,你只要這樣做,就會有人把它送給你。就是這樣。嗯。如果你看一下列表。這種事從不會發生在我身上,我只是在做夢罷了。
看起來你實際能基準測試的GPU 列表大約有 90% 是 NVIDIA。好吧,所以不管怎樣,我們基本上…… 但是。這是 NVLink 8。如今,這些模型如此龐大,我們的解決方式是將模型將這個龐然大物拆解成眾多專家。這有點像一個團隊。因此,這些專家擅長處理特定類型的問題。我們召集了一大批專家。
因此,這個價值數萬億美元的巨型AI 模型匯聚了眾多不同領域的專家。我們將所有這些不同領域的專家都集中到一個 GPU 上。現在,這是 NVLink 72。我們可以把所有芯片都集成到一塊巨型晶圓上,每位專家都能相互交流。因此,這位首席專家能夠與所有在崗的專家進行交流,以及所有必要的上下文、提示和我們必須處理的大量數據,一堆tokens,我們必須發送給所有專家。專家們會…… 無論哪位專家被選中解答問題,都會隨即嘗試作出迴應。
然后它就會開始逐層逐層地執行這個操作,有時八人,有時十六人,有時這些專家有時是64,有時是 256。但關鍵在於,專家的數量正越來越多。嗯,這里,NVLink 72,我們擁有 72 個 GPU。正因如此,我們才能將四位專家整合到單個 GPU 中。
你需要為每塊GPU 做的最重要的事就是生成tokens,即您在HBM 內存中擁有的帶寬數量。我們擁有一臺 H 系列 GPU,為四位專家提供計算支持。與這里不同,因為每台計算機最多隻能安裝八個 GPU,我們必須將 32 位專家整合到單個 GPU 中。因此這塊 GPU 需要為 32 位專家進行思考,相比之下,該系統中每塊 GPU 只需處理四項任務。正因如此,速度差異才如此驚人。
這剛發佈。這是由SemiAnalysis 完成的基準測試。他們干得非常、非常徹底。他們對所有可進行基準測試的 GPU 進行了基準測試。全球各地的供應鏈都在製造它,因此我們現在可以向所有這些地區交付這種新架構,從而使資本支出投資於這些設備,這些計算機能夠提供最佳的總體擁有成本。
現在在這之下,有兩件事正在發生。所以當你看這個時,實際上是相當非同尋常的。無論如何,這相當非同尋常。現在同時發生着兩次平臺轉變。
記住,如我之前跟你提到的,加速計算用於數據處理、圖像處理、計算機圖形學。它確實執行各種計算。它運行SQL,運行 Spark,它運行…… 你知道,你讓它,你告訴我們你需要運行什麼,這可是件大事。它説我們現在可以更快地做出迴應,但這纔是更重大的事。
因此在下面層面,不管是否有AI,世界正從通用計算轉向加速計算。不管是否有 AI。事實上,許多 CSP 早已提供在 AI 出現之前就存在的服務。記住,它們是在機器學習時代被發明的,像 XGBoost 這樣的經典機器學習算法,像用於推薦系統的數據框,協同過濾,內容過濾。所有這些技術都誕生於通用計算的早期時代。
即便是那些算法,即便是那些架構,如今在加速計算的加持下也變得更加強大。因此,即使沒有AI,全球雲服務提供商也將投資於加速技術。NVIDIA 的 GPU 是唯一能同時實現上述所有功能並支持 AI 的 GPU。專用集成電路或許能夠實現AI,但它無法完成其他任何任務。
NVIDIA完全能夠做到這一切,這也解釋了為什麼完全採用 NVIDIA 架構是如此穩妥的選擇。我們現已進入良性循環,抵達了轉折點,這實在非同尋常。
我在這間會議室里有許多合作伙伴,而你們所有人都是我們供應鏈的重要組成部分。我知道你們大家工作多麼努力。我想感謝你們所有人,你們工作多麼努力。非常感謝。
現在我將向你展示原因。這就是我們公司業務的現狀。正如我剛纔提到的所有原因,我們看到Grace Blackwell正呈現出非凡的增長態勢。它由兩個指數函數驅動。我們現在已掌握情況。
我認為,在Blackwell以及Rubin早期增長態勢上,2026年我們很可能是歷史上首家能夠看到5000億美元業務規模的公司。正如你所知,2025 年尚未結束,2026 年也尚未開始。這就是賬面上的業務量,迄今為止已達半萬億美元。
在這些產品中,我們已在前幾個季度售出了六百萬台Blackwell 設備。我猜生產的前四個季度,四分之三的產量。2025 年還有一個季度要走。然后我們有四個季度。因此未來五個季度,將有 5000 億美元。這相當於Hopper增長率的五倍,這多少說明了些什麼。
這就是Hopper的全部人生。這不包括中國和亞洲。所以這只是西方市場。Hopper,在其全部生命周期中,四百萬塊 GPU。Blackwell,每個 Blackwell 在一個大封裝中包含兩塊 GPU。在 Rubin 的早期階段有 2000 萬塊 Blackwell GPU。令人難以置信的增長。
因此,我要感謝我們所有的供應鏈合作伙伴。大家。我知道你們工作多麼辛苦。我製作了一段視頻來慶祝你的工作。我們來玩吧。
極致版Blackwell GB200Nv與Grace Blackwell NVLink 72 的協同設計,使我們實現了十倍代際性能提升。簡直難以置信。現在,真正令人難以置信的部分是這個。這是我們製造的第一臺AI超級計算機。這是2016 年,我將其交付給舊金山的一家初創公司,結果發現是 OpenAI。這就是那臺電腦。
爲了製造那臺計算機,我們設計了一枚芯片。我們設計了一款新芯片。爲了我們現在能夠進行協同設計,看看我們得處理的這麼多芯片。這就是需要的。你不可能拿一塊芯片就讓計算機速度提升十倍,那不可能發生。
使計算機速度提升十倍的方法在於我們能夠持續實現性能的指數級增長。我們能夠以指數級持續壓低成本的方法,是極端協同設計以及同時在所有這些不同芯片上並行工作。我們現在把Rubin 接回家了。這是 Rubin。
這是我們的第三代NVLink 72 機架級計算機。第三代。GB200 是第一代。遍佈全球的所有合作伙伴們,我知道你們付出了多麼艱辛的努力。這真的是極其艱難。第二代,順滑得多。而這一代,看這個,完全無線纜。完全無線纜。而這一切現在又回到了實驗室。
這是下一代,Rubin。在我們發貨GB300 的同時,我們正在準備讓 Rubin 進入量產。你知道的,就在明年的這個時候,也許會稍微早一點。因此,每一年,我們都會提出最激進的協同設計系統,以便不斷提高性能並持續降低tokens生成成本。
看看這個。這是一臺令人難以置信的漂亮計算機。這是100 PetaFLOPS。我知道這沒有任何意義。100 PetaFLOPS。但與我十年前交付給 OpenAI 的 DGX-1 相比,性能提升了 100 倍。就在這里。與那臺超級計算機相比是 100 倍。一百台那種的,來算算看,一百台那種大概相當於 25 個這樣的機架,都被這一樣東西替代了。一個維拉·魯賓。
所以,這是計算托盤。所以這是Vera Rubin 超級芯片。可以嗎?這是計算托盤。就在這里,上方。安裝起來非常容易。只需把這些東西掀開,塞進去。就連我也能做到。這是 Vera Rubin 計算托盤。
如果你決定要添加一個特殊處理器,我們添加了另一個處理器,稱為上下文處理器,因為我們提供給AI 的上下文量越來越大。我們希望它在回答問題之前先讀取大量 PDF,希望它能讀取大量歸檔論文,觀看大量視頻,在回答我的問題之前先去學習所有這些內容。所有這些上下文處理都可以被添加進去。
因此您可以看到底部有八個ConnectX-9 新型 SuperNIC 網卡。你有八個。您擁有 BlueField-4,這款新型數據處理器,兩個 Vera 處理器,以及四個 Rubin 軟件包,或八個 Rubin GPU。這一切都集中在這個節點上。完全無線,100% 液冷。
至於這款新處理器,今天我就不多說了。我時間不夠,但這完全是革命性的。而原因在於,你們的AI 需要越來越多的內存。你與它的互動更頻繁了,你希望它能記住我們上次的對話。你為我所學的一切,等我下次回來時,請千萬別忘記。
因此,所有這些記憶將共同構築出名為KV 緩存的東西。而 KV 緩存,檢索它時,你可能已經注意到,每次你進入你的會話,你們現在的 AI 刷新和檢索所有歷史對話的時間越來越長了。而且原因在於我們需要一款革命性的新處理器。這被稱為 BlueField-4。
接下來是NVLink交換機。這正是使我們能夠將所有計算機連接在一起的關鍵所在。而這個交換機的帶寬現已達到全球互聯網峰值流量的數倍。因此,該主干將同時向所有 GPU 傳遞並傳輸所有數據。
除此之外,這是Spectrum-X 開關。這款以太網交換機的設計使得所有處理器能夠同時相互通信,而不會造成網絡擁塞。堵塞網絡,這很技術性。可以嗎?所以這三者結合起來。然后這就是量子開關。這是 InfiniBand,這是以太網。我們不在乎你想用什麼語言,無論您採用何種標準,我們都為您準備了卓越的橫向擴展架構。
無論是InfiniBand、Quantum 還是 Spectrum 以太網,這款採用硅光子技術,並提供完全共封裝的選項。基本上,激光會直接接觸硅片,並將它與我們的芯片連接起來。可以嗎?這就是 Spectrum-X 以太網。哦,這就是它的樣子。這是一個機架。這是兩噸。150萬個部件和這根脊柱,這根脊柱在一秒鍾內承載着整個互聯網的流量。相同的速度,能在所有這些不同的處理器之間遷移。100%液冷。所有這一切,都是爲了世界上最快的tokens生成速度。可以嗎?所以那就是機架的樣子。
現在,那是一個機架。一個千兆瓦級的數據中心會有,來算算,16個機架大約是姑且叫它 9,000,8,000 個這樣的將是一個一千兆瓦的數據中心。所以那將是未來的 AI 工廠。
如你所見,NVIDIA起初是設計芯片,隨后我們開始設計系統,並且我們設計 AI 超級計算機。現在我們正在設計完整的 AI 工廠。每次我們將更多問題整合進來進行解決時,我們都會想出更好的解決方案。我們現在構建完整的AI工廠。
這個AI工廠將會是…… 我們為 Vera Rubin 構建的東西。我們創造了一項技術,使我們所有的合作伙伴都能夠以數字化方式集成到這個工廠中。讓我向你展示。
完全、完全是數字化的。在Vera Rubin 作為真實計算機出現之前很久很久,我們已經把它作為數字孿生計算機來使用。很久在這些 AI 工廠出現之前,我們就會使用它,我們會設計它,我們會規劃它、優化它,並以數字孿生的方式來運行它。
因此,所有與我們合作的合作伙伴,我非常高興你們所有支持我們的人。Gio在這里,G Ver... Vernova在這里,Schneider。我想,Olivier在這里,Olivier Blum在這里。西門子,令人難以置信的合作伙伴。好的。羅蘭·布什,我想他在看。嗨,羅蘭。總之,真的,非常非常棒的合作伙伴與我們一起工作。
起初,我們有CUDA,以及各種不同的軟件合作伙伴生態系統。現在,我們有Omniverse DSX,並且正在構建AI工廠。同樣地,我們也有這些與我們合作的令人驚歎的合作伙伴生態系統。
讓我們來談談模型,特別是開源模型。在過去幾年里,發生了幾件事。一是開源模型因為具備推理能力而變得非常強大;它們之所以非常強大,是因為它們是多模態的,並且由於蒸餾技術,它們的效率非常高。因此,所有這些不同的功能已經使開源模型首次對開發人員極其有用。它們現在是初創公司的命脈。顯然,這些初創公司的生存命脈在不同的行業中各不相同,正如我之前提到的,每個行業都有其自身的用例、其自身的數據、自己的已用數據,自己的飛輪。所有這些能力,那些領域專長需要能夠嵌入到模型中,開源使這成為可能。研究人員需要開源,開發者需要開源,世界各地的公司,我們需要開源。開源模型真的非常非常重要。
美國也必須在開源方面處於領先地位。我們擁有極其出色的專有模型,我們擁有令人驚艷的專有模型,我們同樣需要令人驚艷的開源模型。我們的國家依賴它,我們的初創公司依賴它,因此NVIDIA致力於去實現這一目標。我們現在是最大的,我們在開源貢獻方面處於領先地位。我們在排行榜上有23個模型。我們擁有來自不同領域的這些語言模型,我將要討論的物理AI模型、機器人模型到生物學模型。每一個這些模型都有龐大的團隊,這也是我們為自己構建超級計算機以支持所有這些模型創建的原因之一。我們擁有第一的語音模型、第一的推理模型、第一的物理AI模型,下載量非常非常可觀。我們致力於此,原因在於科學需要它,研究人員需要它,初創公司需要它,企業也需要它。
我很高興AI初創公司以NVIDIA為基礎構建。他們這樣做有好幾種原因。首先,當然我們的生態系統很豐富,我們的工具運行得非常好。我們所有的工具都能在我們所有的GPU上運行,我們的GPU無處不在。它實際上存在於每一個雲中,它可以在本地部署,你可以自己構建。你可以自己搭建一個發燒友級別的遊戲電腦,里面裝多塊GPU,然后你可以下載我們的軟件棧,它就是能用。我們有大量開發者在不斷豐富生態系統,使其越來越強大。所以我對我們合作的所有初創公司感到非常滿意,我對此心存感激。
同樣,許多這些初創公司現在也開始創造更多方式來利用我們的GPU,例如CoreWeave、Nscale、Nebius、Lambda、Crusoe等。這些公司正在建立這些新的GPU雲來為初創公司服務,我非常感激這一點。這一切之所以成為可能,是因為NVIDIA無處不在。
我們將我們的庫整合在一起,所有我剛纔跟你提到的CUDA X庫、我提到的所有開源AI模型、我提到的所有模型,例如,我們已經集成到AWS中。真的很喜歡和Matt共事。例如,我們已與Google Cloud集成。真的很喜歡和Thomas共事。每一個雲都集成了NVIDIA GPUs和我們的計算、我們的庫,以及我們的模型。很喜歡與微軟Azure的Satya一起合作,很喜歡與Oracle的Clay一起合作。每一個這些雲都集成了NVIDIA堆棧。因此,不論你去哪里,無論你使用哪個雲端,它的工作效果令人難以置信。
我們還將NVIDIA的庫集成到全球的SaaS中,以便這些SaaS最終都能成為具代理能力的SaaS。我喜歡Bill McDermott對ServiceNow的願景。那里有人,對,就這樣。我想那可能是Bill。嗨,Bill。那麼ServiceNow是什麼?全球85%的企業級工作負載、工作流。SAP,全球80%的商業交易。Christian Klein和我正在合作將NVIDIA庫集成起來,將CUDA X、NeMo和NeMotron,以及我們所有的AI系統集成到SAP中。
與Synopsys的Sassine合作,加速全球的CAE,使CAD、EDA工具更快且可擴展,幫助他們創建AI代理。有朝一日,我很想僱傭一個AI代理ASIC設計師來與我們的ASIC設計師合作,從本質上來説,就是Synopsys的AI代理。我們正在與Anirudh一起合作,Anirudh,是的,我今天早些時候見過他,他參與了賽前節目。Cadence做着令人難以置信的工作,加速他們的技術棧,創建AI代理,使得Cadence的AI ASIC設計師和系統設計師能夠與我們協同工作。
今天,我們宣佈一個新的項目。AI將大幅提升生產力,AI將徹底改變每一個行業。但AI也會極大地增強網絡安全挑戰,那些惡意的AI。因此我們需要一個強大的防禦者,我無法想象有比CrowdStrike更好的防禦者。我們與CrowdStrike合作,將網絡安全的速度提升到光速,以創建一個在雲端擁有網絡安全AI代理的系統,同時在本地或邊緣也擁有表現極為出色的AI代理。這樣一來,每當出現威脅時,你就能在瞬間檢測到它。我們需要速度,我們需要一個快速的自主智能、超智能的AI。
我有第二個聲明。這是世界上發展最快的企業公司,可能是當今世界上最重要的企業級堆棧,Palantir Ontology。這里有來自Palantir的人嗎?我剛纔還在和Alex聊天。這是Palantir Ontology,他們獲取信息、獲取數據、獲取人為判斷,並將其轉化為商業洞察。我們與Palantir合作,加速Palantir的所有工作,以便我們能夠進行數據處理,以更大規模和更高速度進行數據處理,更大規模、更多速度。無論是過去的結構化數據,當然也包括我們將擁有結構化數據、人為記錄的數據、非結構化數據,併爲我們的政府處理這些數據,用於國家安全,以及為全球的企業服務,以光速處理這些數據並從中發現洞見。這就是未來的樣子。Palantir將與NVIDIA集成,以便我們能夠以光速和極大規模進行處理。
5、進軍物理AI、機器人技術與自動駕駛
讓我們來談談物理AI。物理AI需要三臺計算機。正如訓練一個語言模型需要兩臺計算機一樣,一臺用於訓練它、評估它,然后用於推理它。所以你看到的是大型的GB200。爲了用於物理AI,你需要三臺計算機。你需要這台計算機來訓練它,這是GB,即Grace Blackwell NVLink-72。我們需要一臺能夠運行我之前用Omniverse DSX展示的所有模擬的計算機。它基本上是一個數字孿生,讓機器人學習如何成為一個優秀的機器人,並使工廠實質上成為一個數字孿生。那臺計算機是第二臺計算機,即Omniverse計算機。這台計算機必須在生成式AI方面表現卓越,並且必須在計算機圖形學方面表現出色,傳感器模擬、光線追蹤、信號處理。這台計算機被稱為Omniverse計算機。一旦我們訓練好模型,就在數字孿生中模擬該AI,而該數字孿生可以是一個工廠的數字孿生,以及大量機器人的數字孿生體。然后,你需要操作那臺機器人,這就是機器人計算機。這個可以裝進一輛自動駕駛汽車里,其中一半可以裝進一臺機器人里。可以嗎?或者你實際上可以擁有,比如説,機器人在操作中非常靈活且非常快速,可能需要兩臺這樣的計算機。這就是Thor,Jetson Thor機器人計算機。這三臺計算機都運行CUDA,這使我們能夠推進物理AI,能夠理解物理世界、理解物理定律的AI,因果關係、持久性,物理AI。
我們有令人難以置信的合作伙伴與我們一起打造工廠的物理AI。我們自己也在使用它來打造我們在德克薩斯的工廠。現在,一旦我們建成了機器人工廠,我們里面有一堆機器人,這些機器人也需要物理AI,將物理AI應用於數字孿生內部,並在其中運行。讓我們看看它。
這就是製造業的未來,未來的工廠。我要感謝我們的合作伙伴富士康。在這里。但所有這些生態系統合作伙伴使我們能夠創造未來的機器人工廠。這個工廠本質上是一個機器人,它正在協調機器人去製造出具有機器人性質的東西。要做到這一點所需的軟件量非常龐大,除非你能夠在數字孿生中去規劃它、去設計它、在數字孿生中去運營它,否則讓這個方案奏效的希望幾乎不可能。
我也很高興看到Caterpillar,我的朋友Joe Creed,以及他那家有着百年曆史的公司也在將數字孿生技術融入他們的製造方式。這些工廠將配備未來的機器人系統,其中最先進的之一是Figure。Brett Adcock今天在這里。他三年半前創辦了一家公司,他們現在市值接近400億美元。我們正在共同訓練這個AI,訓練機器人、模擬機器人,當然還有裝入Figure的機器人電腦。真的非常驚人。我有幸見證了這一點,這真的相當非凡。很可能類人機器人會出現,而且,我的朋友Elon也在做這方面的工作,這很可能會成為最大的消費類產品之一,新的消費電子市場,當然還有最大的一類工業設備市場之一。
Peggy Johnson和Agility的團隊正在與我們合作開發用於倉庫自動化的機器人。Johnson & Johnson的團隊再次與我們合作,訓練機器人,在數字孿生中進行仿真,並且還要操作機器人。這些Johnson & Johnson外科手術機器人甚至將進行完全非侵入性的手術,達到世界前所未有的精確度。
當然,史上最可愛的機器人,迪士尼的機器人。這是與我們息息相關的某件事。我們正在與Disney Research合作開發一個全新的框架和仿真平臺,基於一種名為Newton的革命性技術。而那款Newton模擬器使得機器人在具備物理感知的環境中學習如何成為一名優秀的機器人。讓我們看看它。
現在,人形機器人仍在開發中,但與此同時,有一款機器人明顯處於拐點上,它基本上就在這里,那是一個帶輪子的機器人。這是一個無人駕駛出租車。無人駕駛出租車本質上就是一個AI司機。現在,我們今天正在做的事情之一,我們宣佈推出NVIDIA DRIVE Hyperion。這是一件大事。我們創建了這個架構,以便世界上每一家汽車公司都能製造車輛,可以是商用的,也可以是乘用的,可以是專用於無人出租車,製造出具備無人出租車準備能力的車輛。配備環視攝像頭、雷達和激光雷達的傳感套件使我們能夠實現最高級別的全方位感知套件與冗余,這是實現最高安全級別所必需的。Hyperion DRIVE,DRIVE Hyperion現在已被設計進Lucid、梅賽德斯-奔馳、我的朋友Ola Källenius,Stellantis的團隊,還有許多其他車型即將到來。
一旦你有了一個基本的標準平臺,那麼自動駕駛系統的開發者們,他們中有很多非常有才華的團隊,例如 Wayve、 Waabi、 Aurora、 Momenta、 Nuro、 WeRide等,有這麼多公司可以把他們的AV系統移植到標準底盤上運行。基本上,標準底盤現在已經變成了一個移動的計算平臺。並且因為它是標準化的,且傳感器套件非常全面,他們都可以將他們的AI部署到上面。我們來快速看一下。好的。
那就是美麗的舊金山,正如你所見,自動駕駛出租車的拐點即將到來。未來,每年將有萬億英里被駕駛,每年製造1億輛汽車,全球大約有5000萬輛出租車將會被大量無人駕駛出租車所增強。所以這將是一個非常龐大的市場。爲了將其連接並在全球部署,今天我們宣佈與Uber建立合作伙伴關係。Uber的Dara,Dara要走了。我們正在合作,將這些NVIDIA DRIVE Hyperion汽車連接成一個全球網絡。而在未來,你將能夠召喚到這些汽車中的一輛,生態系統將非常豐富,我們會在全世界看到Hyperion或無人駕駛出租車出現。這將成為我們的一個新的計算平臺,我預計它會非常成功。好的。
這就是我們今天所討論的內容。我們討論了很多很多事情。請記住,其核心是兩點,是從通用計算向加速計算的兩次平臺轉變。NVIDIA CUDA及其名為CUDA-X的一系列庫使我們能夠應對幾乎所有行業,我們正處於拐點,現在它正如虛擬循環所示地增長。第二個拐點現在已經到來,從傳統手寫軟件到AI的轉變。兩個平臺同時發生轉變,這就是我們感受到如此驚人增長的原因。
量子計算,我們已經提到過。我們談到了開源模型。我們談到了與CrowdStrike的企業應用,以及Palantir,加速他們的平臺。我們談到了機器人技術,一個新的可能成為最大規模的消費電子和工業製造行業之一。當然,我們還談到了6G,NVIDIA有了用於6G的新平臺,我們稱之為Aria。我們有一個用於機器人汽車的新平臺,我們把它稱為Hyperion。我們有新的平臺,即便是面向工廠,也是兩類工廠,我們把那個AI工廠稱為DSX,然后把工廠與AI結合,我們稱之為MEGA。
女士們、先生們,感謝你們今天的到來,並且感謝你們讓我——謝謝——感謝你們讓我們能夠把GTC帶到華盛頓特區。我們希望每年都舉辦一次。感謝你們!
責任編輯:江鈺涵