熱門資訊> 正文
2025-11-20 09:15
美東時間周三盤后,英偉達公佈了亮眼的第三季度財報。英偉達CEO黃仁勛和CFO科萊特·克雷斯(Colette Kress)在財報會上,強調了英偉達產品需求仍然爆棚,下游客户正從人工智能中受益。
同時,英偉達高管們還回答了分析師們關於英偉達收入目標、產品迭代、現金規劃、戰略合作以及AI行業趨勢、電力供應瓶頸等問題。
黃仁勛重點強調了三個根本性的轉型——從CPU到GPU的加速、生成式人工智能的主流化以及智能人工智能的出現——他表示,這三大轉型將為多年基礎設施投資提供核心驅動力。
日期
美國東部時間2025年11月19日下午5點
參會人員
•總裁兼首席執行官——黃仁勛(Jensen Huang)
•執行副總裁兼首席財務官——科萊特·克雷斯(Colette Kress)
•投資者關係副總裁——Toshiya Hari
核心要點
•人工智能平臺需求——管理層強調GPU裝機容量已完全利用,「雲服務已售罄」,表明供需失衡狀況持續存在。英偉達此前提出的今明兩年收入5000億美元的目標肯定還有進一步增長的機會。
•Blackwell平臺——GB 300約佔Blackwell總收入的三分之二;GB 300目前引領產品轉型,獲得了廣泛的客户認可。
•戰略合作伙伴關係與投資——宣佈與AWS、Humane、鈴木、英特爾、ARM和Anthropic等合作伙伴達成合作;新人工智能工廠項目涉及多達500萬塊GPU。
•Rubin平臺——按計劃將於2026年量產,首塊芯片已交付,重點關注向后兼容性和生態系統的快速應用。
•性能領先優勢——管理層稱,在DeepSeek r1基準測試中,Blackwell Ultra的訓練速度是Hopper的5倍,每瓦性能是H200的10倍,每令牌成本比H200低10倍。
•戰略投資——持續向OpenAI和Anthropic等人工智能模型開發商投資,以深化生態系統影響力和性能優化。
•供應鏈擴張——與臺積電合作,在美國本土生產出第一片Blackwell晶圓;持續努力擴大供應冗余度和韌性。
•中國市場收入限制——科萊特·克雷斯表示:「受地緣政治問題及中國市場競爭加劇影響,本季度大額採購訂單未能兑現」,這直接影響了面向中國的數據中心計算產品出貨量,但英偉達仍致力於繼續與美國和中國政府溝通。
•投入成本上升——科萊特·克雷斯指出:「投入成本持續上漲,但我們正努力將毛利率維持在75%左右」,這凸顯了2027財年面臨的利潤率壓力。
英偉達財報電話會議實錄(由人工智能輔助翻譯,部分內容有刪減)
Toshiya Hari:各位下午好,歡迎參加英偉達公司2026財年第三季度財報電話會議。今天與我一同出席的是英偉達公司總裁兼首席執行官黃仁勛先生,以及執行副總裁兼首席財務官科萊特·克雷斯女士。接下來,我將會議交給科萊特。
科萊特·克雷斯:謝謝。我們交付了又一個出色的季度,營收達到570億美元,同比增長62%,環比創紀錄增長100億美元(增幅22%)。我們的客户繼續投身於三大平臺轉型,這些轉型為加速計算、強大的人工智能模型和智能體應用帶來了指數級增長。然而,這些轉型仍處於早期階段,將影響我們各個行業的業務。目前,我們預計從今年年初到2026年12月,Blackwell和Rubin平臺的收入將達到5000億美元。
通過執行年度產品周期,並通過全棧設計擴大性能領先優勢,我們相信英偉達公司將成為截至本十年末,每年3至4萬億美元人工智能基礎設施建設的首選合作伙伴。人工智能基礎設施需求持續超出我們的預期。雲服務已售罄,我們的GPU裝機容量(包括Blackwell、Hopper和Ampere等新舊產品系列)均已完全利用。第三季度數據中心營收創下510億美元的紀錄,同比增長66%,在我們的規模下,這是一項顯著成就。
計算部門同比增長56%,主要得益於GB 300的量產;而隨着NVLink規模擴大,以及Spectrum X以太網和Quantum X InfiniBand業務實現兩位數的強勁增長,網絡業務收入增長超過一倍。超大規模雲計算行業(規模達萬億美元)正將搜索推薦和內容理解從傳統機器學習轉向生成式人工智能。英偉達CUDA在這兩方面均表現出色,是這一轉型的理想平臺,推動了數千億美元的基礎設施投資。在Meta,人工智能推薦系統提供了更高質量和更相關的內容,使得用户在Facebook和Threads等應用上花費的時間更多。
分析師對2026年頂級雲服務提供商(CSP)和超大規模雲計算廠商的總資本支出預期持續上升,目前約為6000億美元,較年初增加了2000多億美元。我們認為,當前超大規模計算工作負載向加速計算和生成式人工智能的轉型,將佔據我們長期機會的約一半。
另一個增長支柱是基礎模型開發商(如Anthropic、Mastral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab和xAI)推動的計算支出持續增長。所有這些公司都在積極擴大計算規模,以提升智能水平。預訓練、后訓練和推理這三大縮放定律仍然有效。
事實上,我們看到一個積極的良性循環正在形成:這三大縮放定律以及計算資源的可及性正在催生更先進的智能,進而提高應用普及率和利潤。
OpenAI最近表示,其周用户基數已增長至8億,企業客户增至100萬,毛利率表現良好。Anthropic最近報告稱,截至上個月,其年化營收已達70億美元,高於年初的10億美元。我們還看到智能體人工智能在各個行業和任務中迅速普及。
Cursor Anthropic、Open Evidence、Epic和Abridge等公司的用户增長迅猛,它們為現有員工賦能,為編碼人員和醫療專業人員帶來了顯著的投資回報率(ROI)。ServiceNow、CrowdStrike和SAP等全球最重要的企業軟件平臺正在整合英偉達的加速計算和人工智能技術棧。我們的新合作伙伴Palantir首次利用英偉達CUDA X庫和人工智能模型,為廣受歡迎的本體論平臺(Ontology)賦能。此前,與大多數企業軟件平臺一樣,Ontology僅運行在CPU上。勞氏(Lowe's)正利用該平臺提升供應鏈靈活性,降低成本並提高客户滿意度。企業普遍利用人工智能提高生產力、提升效率並降低成本。
加拿大皇家銀行(RBC)利用智能體人工智能顯著提高了分析師的工作效率,將報告生成時間從數小時縮短至數分鍾。人工智能和數字孿生技術幫助聯合利華(Unilever)將內容創作速度提高了一倍,並削減了5.5億美元成本。Salesforce的工程團隊在採用Cursor后,新代碼開發效率至少提高了30%。本季度,我們宣佈了人工智能工廠和基礎設施項目,涉及總計500萬塊GPU。這些需求涵蓋所有市場,包括雲服務提供商、主權國家、現代開發商、企業和超級計算中心,其中包括多個具有里程碑意義的建設項目:xAI的Colossus Two(全球首個吉瓦級數據中心)、禮來(Lilly)的藥物研發人工智能工廠(製藥行業最強大的數據中心)。
就在今天,AWS和沙特Humane擴大了合作,包括部署多達15萬塊人工智能加速器(含我們的GB 300);xAI和Humane還宣佈建立合作伙伴關係,將聯合開發以旗艦級500兆瓦設施為核心的世界級GPU數據中心網絡。Blackwell在第三季度勢頭進一步增強,GB 300的收入佔Blackwell總收入的比例超過了GB 200,達到約三分之二。向GB 300的轉型無縫銜接,已向大多數主要雲服務提供商、超大規模雲計算廠商和GPU雲平臺批量出貨,並已開始推動它們的增長。Hopper平臺自推出以來已進入第十三個季度,第三季度收入約為20億美元。H200銷售額約為5000萬美元。
受地緣政治問題和中國市場競爭加劇影響,本季度大額採購訂單未能兑現。儘管目前的狀況使我們無法向中國市場運送更具競爭力的數據中心計算產品,這讓我們感到失望,但我們仍致力於繼續與美國和中國政府溝通,並將繼續倡導美國在全球範圍內的競爭力。爲了在人工智能計算領域建立可持續的領導地位,我們必須贏得每位開發者的支持,併成為包括中國企業在內的所有商業企業的首選平臺。
Rubin平臺按計劃將於2026年量產。Vera Rubin平臺由七塊芯片提供支持,將再次實現相對於Blackwell的數倍性能提升。我們已從供應鏈合作伙伴處收到芯片,並且很高興地報告,英偉達全球團隊的產品啟動工作進展順利。Rubin是我們的第三代機架式系統,在保持與Grace Blackwell兼容性的同時,大幅優化了可製造性。我們的供應鏈、數據中心生態系統和雲合作伙伴現已熟練掌握英偉達RAC架構的製造和安裝流程。我們的生態系統將為Rubin的快速量產做好準備。我們每年數倍的性能領先優勢提高了每美元性能,同時降低了客户的計算成本。
英偉達CUDA GPU的長使用壽命相對於其他加速器具有顯著的總擁有成本(TCO)優勢。CUDA的兼容性和我們龐大的裝機容量,使得英偉達系統的使用壽命遠遠超出最初的預計。二十多年來,我們不斷優化CUDA生態系統,改進現有工作負載,加速新工作負載,並通過每次軟件更新提高吞吐量。大多數沒有CUDA以及英偉達經過時間考驗的通用應用架構的加速器,隨着模型技術的發展,在幾年內就會被淘汰。得益於CUDA,我們六年前推出的A100 GPU至今仍在滿負荷運行,這要歸功於大幅改進的軟件棧。
過去25年來,我們已從一家遊戲GPU公司發展成為如今的人工智能數據中心基礎設施公司。我們在CPU、GPU、網絡和軟件領域的創新能力,以及最終降低每令牌成本的能力,在行業內無可匹敵。我們專為人工智能打造的網絡業務現已成為全球最大的網絡業務,營收達82億美元,同比增長162%,NVLink、InfiniBand和Spectrum X以太網均為增長做出了貢獻。我們在數據中心網絡領域佔據領先地位,如今大多數人工智能部署都包含我們的交換機,以太網GPU連接率與InfiniBand大致相當。
Meta、微軟、甲骨文和xAI正在利用Spectrum X以太網交換機建設吉瓦級人工智能工廠,每家公司都將運行自己選擇的操作系統,這凸顯了我們平臺的靈活性和開放性。我們最近推出了Spectrum XGS(一種跨尺度技術),支持千兆級人工智能工廠建設。英偉達是唯一一家擁有人工智能縱向擴展、橫向擴展和跨尺度擴展平臺的公司,這強化了我們作為人工智能基礎設施提供商在市場中的獨特地位。客户對NVLink Fusion的興趣持續增長。10月,我們宣佈與鈴木建立戰略合作,將通過NVLink Fusion整合富士通的CPU和英偉達的GPU,連接我們龐大的生態系統。
我們還宣佈與英特爾合作,開發多代定製數據中心和個人電腦產品,通過NVLink連接英偉達和英特爾的生態系統。本周在超級計算25大會上,安謀(Arm)宣佈將整合NVLink IP,供客户開發可與英偉達產品連接的CPU片上系統(SoC)。NVLink目前已發展至第五代,是市場上唯一經過驗證的縱向擴展技術。在最新的MLPerf訓練測試中,Blackwell Ultra的訓練速度是Hopper的5倍。英偉達在所有基準測試中均名列前茅。值得注意的是,英偉達是唯一一家支持FP4精度且符合MLPerf嚴格精度標準的訓練平臺。
在Semianalysis的推理Max基準測試中,Blackwell在所有模型和用例中均實現了最高性能和最低總擁有成本。尤其重要的是,Blackwell的NVLink在混合專家模型(全球最受歡迎的推理模型架構)上的性能表現。在DeepSeek r1測試中,與H200相比,Blackwell的每瓦性能提升了10倍,每令牌成本降低了10倍。
這一巨大的代際飛躍得益於我們的極致協同設計方法。英偉達Dynamo(一種開源、低延迟、模塊化推理框架)現已被所有主要雲服務提供商採用。藉助Dynamo的支持和分佈式推理,混合專家模型等複雜人工智能模型的性能得到了提升。AWS、谷歌雲、微軟Azure和OCI已為企業雲客户提升了人工智能推理性能。我們正與OpenAI建立戰略合作伙伴關係,重點幫助他們建設和部署至少10吉瓦的人工智能數據中心。此外,我們還有機會對該公司進行投資。目前,我們通過其雲合作伙伴(微軟Azure、OCI和CoreWeave)為OpenAI提供服務。
在可預見的未來,我們將繼續這樣做。隨着他們的規模不斷擴大,我們很高興支持該公司增加自建基礎設施,目前我們正在推進一項最終協議,並期待支持OpenAI的發展。昨天,我們與Anthropic宣佈了一項合作。Anthropic將首次採用英偉達架構,我們將建立深度技術合作夥伴關係,支持Anthropic的快速增長。我們將合作優化Anthropic模型與CUDA的兼容性,以實現最佳性能、效率和總擁有成本。我們還將針對Anthropic的工作負載優化未來的英偉達架構。Anthropic的計算承諾最初包括高達1吉瓦的計算容量,將採用Grace Blackwell和Vera Rubin系統。
我們對Anthropic、Mastral、OpenAI、Reflection、Thinking Machines等公司的戰略投資,代表着能夠擴大英偉達CUDA人工智能生態系統的合作伙伴關係,並使每個模型都能在英偉達的全系列產品上實現最佳運行。我們將繼續進行戰略投資,同時保持嚴謹的現金流管理方法。物理人工智能已經成為一項數十億美元規模的業務,有望帶來數萬億美元的市場機會,也是英偉達的下一個增長引擎。美國領先的製造商和機器人創新企業正利用英偉達的三計算架構:在英偉達上進行訓練、在Omniverse計算機上進行測試、在Justin機器人計算機上部署真實世界的人工智能。
PTC和西門子推出了新服務,將Omniverse支持的數字孿生工作流帶給其廣泛的現有客户。Belden、卡特彼勒(Caterpillar)、富士康(Foxconn)、Lucid Motors、豐田(Toyota)、臺積電(TSMC)和緯創(Wistron)等公司正在建設Omniverse數字孿生工廠,以加速人工智能驅動的製造業和自動化發展。Agility Robotics、亞馬遜機器人(Amazon Robotics)、Figure和Skilled AI等公司正在基於我們的平臺進行開發,利用英偉達Cosmos世界基礎模型(用於開發)、Omniverse(用於仿真和驗證)以及Jetson(為下一代智能機器人提供動力)等產品。我們始終致力於構建具有韌性和冗余度的全球供應鏈。上個月,我們與臺積電合作,在美國本土生產出了第一片Blackwell晶圓。
未來四年,我們將繼續與富士康、緯創、Amcor、Spill等公司合作,擴大在美國的業務佈局。遊戲業務收入為43億美元,同比增長30%,這得益於強勁的市場需求——共有4200萬遊戲玩家參與,數千名粉絲齊聚韓國的GeForce遊戲節,慶祝GeForce誕生25周年。英偉達專業可視化業務已發展爲面向工程師和開發者的計算解決方案,無論是用於圖形處理還是人工智能應用。專業可視化業務收入為7.6億美元,同比增長56%,再創紀錄,增長主要由DGX Spark(全球最小的人工智能超級計算機,基於Grace Blackwell的小型配置構建)推動。
汽車業務收入為5.92億美元,同比增長32%,主要由自動駕駛解決方案驅動。我們正與優步(Uber)合作,基於新的英偉達Hyperion L4自動駕駛出租車參考架構,擴大全球最大的L4級自動駕駛車隊規模。接下來談談損益表的其他部分。GAAP毛利率為73.4%,非GAAP毛利率為73.6%,均超出我們的預期。得益於數據中心業務結構優化、周期時間縮短及成本結構改善,毛利率環比有所上升。GAAP運營費用環比增長8%,非GAAP運營費用環比增長11%,增長主要源於基礎設施計算、薪酬福利增加以及工程開發成本上升。
第三季度非GAAP有效税率略高於17%,高於我們16.5%的指引,這主要受美國市場收入強勁增長的影響。在資產負債表方面,庫存環比增長32%,供應承諾環比增長63%。我們正在為未來的顯著增長做準備,並對我們把握市場機會的能力充滿信心。接下來,我將第四季度展望交給大家。預計總收入為650億美元,上下浮動2%。中點值意味着環比增長14%,這一增長將由Blackwell架構的持續增長勢頭推動。與上一季度一致,我們未計入來自中國的數據中心計算業務收入。
GAAP和非GAAP毛利率預計分別為74%和75%,上下浮動50個基點。展望2027財年,投入成本持續上漲,但我們正努力將毛利率維持在75%左右。GAAP和非GAAP運營費用預計分別約為67億美元和50億美元。GAAP和非GAAP其他收入和支出預計約為5億美元(收入),不包括非上市和上市權益證券的損益。GAAP和非GAAP税率預計為17%,上下浮動1%,不包括任何非經常性項目。現在,我將會議交給黃仁勛先生,請他講幾句話。
黃仁勛:謝謝科萊特。關於人工智能泡沫的討論很多。但從我們的角度來看,我們看到的情況完全不同。需要提醒的是,英偉達與其他任何加速器都不同。我們在人工智能的各個階段都表現出色,從預訓練、后訓練到推理。
憑藉我們擁有二十年曆史的CUDA X加速庫,我們在科學和工程仿真、計算機圖形學、結構化數據處理以及傳統機器學習方面也表現卓越。世界正同時經歷三大平臺轉型,這是摩爾定律誕生以來的首次。英偉達獨特地應對了這三大轉型。
第一次轉型是從CPU通用計算轉向GPU加速計算。隨着摩爾定律放緩,全球在非人工智能軟件方面投入巨大,從數據處理到科學和工程仿真,每年在雲計算方面的支出達數千億美元。許多曾經僅在CPU上運行的應用程序,現在正迅速轉向CUDA GPU。加速計算已達到臨界點。
其次,人工智能也已達到臨界點,正在改變現有應用程序,同時催生全新的應用程序。在現有應用程序方面,生成式人工智能正在取代搜索排名、推薦系統、廣告定向、點擊率預測和內容審覈等領域的傳統機器學習,這些都是超大規模基礎設施的核心。Meta用於廣告推薦的JEM基礎模型(在大規模GPU集羣上訓練)就是這一轉型的例證。
第二季度,Meta報告稱,受基於生成式人工智能的JEM模型推動,Instagram的廣告轉化率提升了5%以上,Facebook動態的廣告轉化率提升了3%。向生成式人工智能轉型為超大規模雲計算廠商帶來了可觀的收入增長。
現在,一股新浪潮正在興起——智能體人工智能系統,它們能夠推理、規劃和使用工具。從Cursor和QuadCode等編碼助手,到iDoc等放射學工具、Harvey等法律助手,再到特斯拉FSD和Waymo等人工智能自動駕駛系統,這些系統標誌着計算領域的下一個前沿。如今全球增長最快的公司(OpenAI、Anthropic、xAI、谷歌、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridge、特斯拉)都在開拓智能體人工智能。因此,這三大平臺轉型意義重大。
向加速計算的轉型具有基礎性和必要性,在后摩爾定律時代至關重要。向生成式人工智能的轉型具有變革性和必要性,它為現有應用程序和商業模式賦能。向智能體人工智能和物理人工智能的轉型將具有革命性,將催生出新的應用程序、公司、產品和服務。
在考慮基礎設施投資時,請考慮這三大基本動態,它們都將在未來幾年推動基礎設施增長。英偉達之所以被選中,是因為我們獨特的架構能夠支持所有這三大轉型,因此適用於所有行業、所有人工智能階段、所有多樣化計算需求,無論是在雲端、企業還是機器人領域,都能通過一個架構實現。
Toshiya Hari:現在我們開放問答環節。操作員,請開始收集問題。
薩拉:第一個問題來自摩根士丹利的約瑟夫·摩爾(Joseph Moore),您的線路已接通。請提問。
約瑟夫·摩爾:謝謝。我想了解一下最新情況。你們在GTC大會上提到,Blackwell和Rubin在2025年和2026年的收入將達到5000億美元。當時你們稱其中已有1500億美元的產品已出貨。那麼隨着本季度結束,這些大致參數是否仍然適用?即在未來大約14個月左右,還有3500億美元的收入空間?而且,我認為在這段時間里,你們還沒有看到全部需求,隨着時間推移,這些數字是否有可能上調?
科萊特·克雷斯:好的,謝謝喬。我先回應一下這個問題。是的,情況沒錯。我們正在朝着5000億美元的預測目標前進,隨着部分季度的完成,我們正按計劃推進。現在距離2026年12月還有幾個季度的時間。這個數字還會增長,我相信,到2026財年,我們還將滿足更多可出貨的計算需求。本季度我們出貨額達500億美元,但如果不説我們可能會收到更多訂單,那就是不完整的。
例如,就在今天,我們與沙特阿拉伯(KSA)宣佈了一項協議,僅該協議就涉及未來三年內新增40萬至60萬塊GPU。Anthropic的合作也不是新的訂單。因此,在我們宣佈的5000億美元基礎上,肯定還有進一步增長的機會。
薩拉:下一個問題來自坎託·菲茨傑拉德(Cantor Fitzgerald)的C.J.繆斯(C.J. Muse),您的線路已接通。
C.J.繆斯:下午好。謝謝你們接受我的提問。顯然,人們對人工智能基礎設施建設的規模、資金籌措能力以及投資回報率存在諸多擔憂。但與此同時,你們表示所有已部署的GPU都已被佔用,雲服務已售罄。人工智能行業尚未從GB 300中看到巨大收益,更不用説Rubin了。而且Gemini 3剛剛發佈,Grok 5也即將推出。
所以我的問題是,在這樣的背景下,您認為在未來12至18個月內,供應有可能趕上需求嗎?還是説這種供需失衡可能會持續更長時間?
黃仁勛:嗯,如你所知,我們在供應鏈規劃方面做得非常出色。英偉達的供應鏈基本上涵蓋了全球所有科技公司。臺積電(及其封裝業務)、我們的內存供應商和合作夥伴,以及所有系統原始設計製造商(ODM)都與我們進行了出色的規劃。我們一直在為豐收的一年做準備。你知道,我剛纔提到的三大轉型,我們已經關注了一段時間——加速計算、從通用計算向加速計算的轉變。重要的是要認識到,人工智能不僅僅是智能體人工智能,生成式人工智能也在改變超大規模雲計算廠商過去在CPU上完成的工作。
生成式人工智能使他們能夠將搜索、推薦系統、廣告推薦和定向等業務轉移到生成式人工智能上。所有這些都已轉向生成式人工智能,而且這一轉型仍在進行中。因此,無論你是為數據處理、推薦系統的生成式人工智能,還是為大多數人眼中的人工智能(如智能體聊天機器人)安裝英偉達GPU,所有這些應用程序都能通過英偉達GPU加速。因此,當你審視整體支出時,重要的是要考慮到每一個層面。它們都在增長,相互關聯但又各不相同。
但令人欣慰的是,它們都能同時在英偉達GPU上運行。由於人工智能模型的質量正在以驚人的速度提升,不同用例中的應用普及率也在不斷提高——無論是代碼輔助(英偉達自身就大量使用,而且我們並非個例)。我的意思是,Cursor、CliveCode、OpenAI的Codex和GitHub Copilot等應用的組合,是歷史上增長最快的應用。而且它們不僅被軟件工程師使用,由於可視化編程的出現,公司里的工程師和營銷人員也在使用。
公司里的供應鏈規劃人員也在使用。所以我認為這只是一個例子,這樣的例子還有很多。無論是Open Evidence在醫療保健領域的工作,還是Runway在數字視頻編輯方面的工作,都有很多令人興奮的初創公司正在利用生成式人工智能和智能體人工智能,而且使用頻率也在大幅增加。因此,所有這些指數級增長——更不用説,就在今天,我收到了丹尼斯的信息,他説預訓練和后訓練仍然非常有效。
Gemini 3利用了縮放定律,在模型性能質量上實現了巨大飛躍。因此,我們看到所有這些指數級增長同時發生。我們應該始終迴歸基本原則,思考我之前提到的每一個動態:從通用計算到加速計算的轉型、生成式人工智能取代傳統機器學習,以及當然還有智能體人工智能這一全新類別。
薩拉:下一個問題來自美國銀行證券(Bank of America Securities)的維韋克·阿里亞(Vivek Arya),您的線路已接通。
維韋克·阿里亞:謝謝你們接受我的提問。我想了解一下,在5000億美元的收入目標中,每吉瓦對應的英偉達產品收入是多少?因為我們聽到的數字參差不齊,低至每吉瓦250億美元,高至300億至400億美元。所以我想知道,在5000億美元的目標中,你們假設的每吉瓦功率對應的收入是多少?此外,黃仁勛先生,長期來看,之前提到到2030年數據中心市場規模將達到3至4萬億美元。您認為其中有多少需要供應商融資,有多少可以由大型客户、政府或企業的現金流來支持?謝謝。
黃仁勛:從Ampere到Hopper、從Hopper到Blackwell、再從Blackwell到Rubin,每一代產品中,我們在數據中心業務中的佔比都在增加。Hopper一代的每吉瓦對應收入可能在20多億美元,大概20至250億美元之間。Blackwell一代(尤其是Grace Blackwell)可能在300億美元左右,上下浮動。而Rubin一代可能會更高。在每一代產品中,性能都實現了數倍提升,因此客户的總擁有成本也實現了數倍優化。最重要的是,最終你仍然只消耗1吉瓦的電力。
你知道,一座1吉瓦的數據中心消耗的電力就是1吉瓦,因此,你的架構的每瓦性能(效率)至關重要。而且架構的效率無法通過蠻力實現,這是無法強求的。1吉瓦的電力直接轉化為收入。你的每瓦性能直接、絕對直接地轉化為收入。這就是為什麼現在選擇正確的架構如此重要。你知道,世界上沒有多余的資源可以浪費。因此,我們必須非常注重一個概念,我們稱之為協同設計。
涵蓋我們的整個技術棧、框架和模型、整個數據中心,甚至電力和冷卻系統,都在整個供應鏈和生態系統中進行優化。因此,每一代產品中,我們的經濟貢獻都會更大,提供的價值也會更高。但最重要的是,我們每一代產品的每瓦能效都將非常出色。關於客户如何為持續增長融資,這取決於他們自己。我們看到未來有很大的增長機會,而且請記住,如今大多數關注點都集中在超大規模雲計算廠商身上。
關於超大規模雲計算廠商,有一點很容易被誤解:對英偉達GPU的投資不僅能改善他們的通用計算規模、速度和成本(這是第一點),因為摩爾定律的增長確實已經放緩。摩爾定律的核心是降低成本,是計算成本隨着時間推移的大幅下降。但這種下降已經放緩。因此,他們需要一種新的方法來繼續降低成本。採用英偉達GPU計算確實是最佳方式。第二點是提升他們現有商業模式的收入。你知道,推薦系統是全球超大規模雲計算廠商的核心業務。
無論是觀看短視頻、推薦書籍、推薦購物車中的下一件商品、推薦廣告、推薦新聞,所有這些都依賴於推薦系統。互聯網上有萬億條內容,他們如何才能在你小小的屏幕上呈現你感興趣的內容?除非他們擁有非常複雜的推薦系統。而現在,推薦系統已經轉向生成式人工智能。所以我剛纔提到的前兩點——需要投入的數千億美元資本支出——完全可以通過現金流來支撐。除此之外,就是智能體人工智能的相關支出。
這部分收入是全新的消費需求,但同時也催生了全新的應用程序。我之前提到了一些應用程序,但這些新應用程序也是歷史上增長最快的應用程序。好的?所以我認為,一旦人們開始理解表象之下的真實情況——從對資本支出投資的簡單看法,到認識到這三大動態——他們就會明白其中的邏輯。最后,請記住,我們剛纔談論的是美國的雲服務提供商。每個國家都會為自己的基礎設施提供資金。世界上有很多國家,很多行業。
全球大多數行業尚未真正涉足智能體人工智能,但他們即將開始。你知道,我們合作的所有公司——無論是自動駕駛汽車公司、工廠物理人工智能的數字孿生技術公司,還是全球正在建設的大量工廠和倉庫。僅數字生物學領域就有大量初創公司獲得融資,以加速藥物研發。所有這些不同的行業現在都開始參與進來,他們將自行籌集資金。所以,不要只把超大規模雲計算廠商視為未來建設的唯一力量。
你必須關注全球市場,關注所有不同的行業,企業計算也將為自己的行業提供資金支持。
薩拉:下一個問題來自梅留斯(Melius)的本·賴茨斯(Ben Reitzes),您的線路已接通。
本·賴茨斯:嘿,非常感謝。黃仁勛先生,我想問問關於現金的規劃。考慮到未來幾年你們可能會產生約5000億美元的自由現金流,你們對這些現金有什麼規劃?回購股票和生態系統投資分別佔多少比例?你們如何看待生態系統投資?我認為外界對這些交易的運作方式以及你們的投資標準(比如對Anthropic、OpenAI等公司的投資)存在很多困惑。非常感謝。
黃仁勛:是的,感謝你的問題。當然,現金將用於支持我們的增長。沒有任何一家公司能在我們所説的規模上實現增長,同時還能擁有像英偉達這樣廣泛而深厚的供應鏈聯繫。我們的整個客户羣之所以能信賴我們,是因為我們已經建立了極具韌性的供應鏈,而且我們的資產負債表能夠支持他們。當我們進行採購時,我們的供應商可以放心。當我們與他們一起制定預測和規劃時,他們會認真對待我們。這都歸功於我們的資產負債表。我們並不是在憑空猜測產量,我們清楚自己的產量需求。
而且由於他們與我們合作了這麼多年,我們的聲譽和可信度非常高。因此,要支持這種規模、速度和量級的增長,需要非常強勁的資產負債表。這是第一點。
第二點,當然,我們將繼續進行股票回購。但關於投資,這是我們正在做的一項非常重要的工作。到目前為止,我們所做的所有投資都是爲了擴大CUDA的影響力,拓展生態系統。
如果你看看我們對OpenAI的投資,當然,我們從2016年就與他們建立了合作關係。我們為OpenAI交付了有史以來第一臺人工智能超級計算機。因此,自那以后,我們與OpenAI建立了密切而良好的合作關係。如今,OpenAI所做的一切都運行在英偉達的產品上。無論是他們在雲端部署的訓練和推理工作負載,都依賴於英偉達,我們很高興能與他們合作。我們與他們的合作伙伴關係旨在從技術層面進行更深入的合作,以支持他們的加速增長。這是一家增長速度極快的公司。不要只關注新聞報道中的內容。
看看所有與OpenAI相關的生態系統合作伙伴和開發者,他們都在推動產品的應用。與一年前相比,人工智能的質量有了巨大提升。迴應的質量非常出色。因此,我們投資OpenAI是爲了建立深度合作伙伴關係和聯合開發,以擴大我們的生態系統並支持他們的增長。當然,與其放棄我們公司的股份,不如獲得他們公司的股份。
我們投資的是一家俱有劃時代意義的公司,一家我們持有股份的、可能千載難逢的公司。因此,我完全預計這項投資將帶來非凡的回報。至於Anthropic,這是Anthropic首次採用英偉達的架構。Anthropic是全球用户數量第二多的人工智能公司,在企業領域表現尤為出色。ClotCode的表現非常好,Clot也非常成功,被全球眾多企業採用。
現在,我們有機會與他們建立深度合作伙伴關係,將Claude引入英偉達平臺。那麼現在我們擁有什麼?英偉達的架構——退后一步説,英偉達的平臺是全球唯一能運行所有人工智能模型的平臺。我們運行OpenAI的模型,運行Anthropic的模型,運行xAI的模型。由於我們與埃隆(Elon)和xAI的深度合作伙伴關係,我們得以將這個機會帶給沙特阿拉伯,讓Humane也能為xAI提供託管服務。我們運行xAI的模型,運行Gemini的模型,運行Thinking Machines的模型。讓我想想,我們還運行哪些模型?我們運行所有模型。
更不用説,我們還運行科學模型、生物學模型、DNA模型、基因模型、化學模型,以及全球各個領域的模型。世界所使用的不僅僅是認知人工智能。人工智能正在影響每個行業。因此,通過我們進行的生態系統投資,我們有能力與世界上一些最優秀、最傑出的公司建立深度技術合作夥伴關係。我們正在擴大生態系統的影響力,並投資於那些將取得巨大成功的公司,通常是那些具有劃時代意義的公司。這就是我們的投資理念。
薩拉:下一個問題來自高盛(Goldman Sachs)的吉姆·施耐德(Jim Schneider),您的線路已接通。
吉姆·施耐德:下午好。謝謝你們接受我的提問。過去,你們曾提到約40%的出貨量與人工智能推理相關。我想知道,展望明年,你預計這一比例在一年后會達到多少?你能否介紹一下明年預計推出的Rubin CPX產品,並説明你預計它將佔據多大的總體潛在市場(TAM)?另外,能否談談該特定產品的目標客户應用場景?謝謝。
黃仁勛:CPX是為長上下文類型的工作負載生成而設計的。所謂長上下文,基本上是指在開始生成答案之前,需要讀取大量信息。基本上,你知道,長上下文可能是一堆PDF文件、一系列視頻、三維圖像等等。你必須先吸收這些上下文信息。因此,CPX是專為長上下文類型的工作負載設計的。它的每美元性能非常出色,針對特定用途的性能也非常出色。我差點忘了問題的第一部分。
科萊特·克雷斯:推理業務。
黃仁勛:哦,推理業務。是的。有三大縮放定律同時在發揮作用。第一個縮放定律是預訓練,仍然非常有效。第二個是后訓練。后訓練基本上找到了令人難以置信的算法,可以提高人工智能分解問題和逐步解決問題的能力。后訓練正呈指數級增長。基本上,你對模型投入的計算資源越多,它就越智能,越具認知能力。第三個是推理。由於思維鏈(chain of thought)和推理能力的存在,人工智能在回答問題之前實際上需要先閲讀和思考。
這三個因素導致所需的計算量呈指數級增長。我認為很難確切知道在任何特定時間點這個比例會是多少,以及涉及哪些領域。但當然,我們希望推理業務能佔據市場的很大一部分。因為如果推理業務規模龐大,那就意味着人們在更多應用中使用它,而且使用頻率更高。這是我們都希望看到的。而在這方面,Grace Blackwell比世界上任何其他產品都要先進一個數量級。
第二好的平臺是H200,現在很明顯,由於我們擁有的MP Link 72縱向擴展網絡,GB 300、GB 200和GB 300的性能表現非常出色。正如科萊特在Semianalysis基準測試中提到的,這是有史以來規模最大的單次推理基準測試,GB 200的MP Link 72性能提升了10到15倍。這是一個巨大的進步。其他人需要很長時間才能趕上。我們在這方面的領先優勢肯定會持續多年。是的。所以我希望推理業務能成為一項大業務。我們在推理領域的領先優勢非常顯著。
薩拉:下一個問題來自瑞銀(UBS)的蒂莫西·阿庫里(Timothy Arcuri),您的線路已接通。
蒂莫西·阿庫里:非常感謝。黃仁勛先生,你們的許多客户都在尋求廠用電解決方案,但你最擔心的、可能限制你們增長的單一最大瓶頸是什麼?是電力供應、融資,還是內存甚至代工廠等其他因素?非常感謝。
黃仁勛:嗯,這些都是問題,也都是制約因素。原因在於,當你以我們這樣的速度和規模增長時,怎麼可能一帆風順?英偉達正在做的事情顯然是前所未有的。我們創造了一個全新的行業。一方面,我們正在將計算從通用計算和傳統計算轉向加速計算和人工智能。另一方面,我們創造了一個全新的行業,稱為人工智能工廠。
這個理念是,爲了運行軟件,你需要這些工廠來生成每一個令牌,而不是檢索預先創建的信息。因此,我認為整個轉型需要非凡的規模。從供應鏈來看,當然,我們對供應鏈有更好的可見性和控制力,因為顯然我們非常擅長管理供應鏈。我們與合作了33年的優秀夥伴們一起合作。因此,供應鏈方面,我們非常有信心。現在看看我們的供應鏈下游,我們已經與眾多涉及土地、電力、廠房建設的企業建立了合作伙伴關係,當然還有融資領域的合作伙伴。這些事情都不容易,但都具有吸引力,而且都是可以解決的問題。
最重要的是,我們必須做好規劃。我們向上遊供應鏈和下游供應鏈進行規劃,我們已經建立了大量的合作伙伴關係,因此我們有很多市場渠道。而且非常重要的是,我們的架構必須為我們的客户提供最佳價值。因此,目前來看,我非常有信心英偉達的架構在總擁有成本(TCL)方面表現最佳,在每瓦性能方面表現最佳,因此,對於任何數量的能源輸入,我們的架構都能帶來最高的收入。
我認為我們成功的速度正在加快——我認為今年到目前為止,我們比去年同期更加成功。你知道,越來越多的客户在探索其他選擇后轉而選擇我們的平臺,而不是減少。所以我認為,我這些年來一直告訴你們的所有事情都在成為現實,或者説正變得越來越明顯。
薩拉:下一個問題來自伯恩斯坦研究公司(Bernstein Research)的斯泰西·拉斯貢(Stacy Rasgon),您的線路已接通。
斯泰西·拉斯貢:我有幾個關於利潤率的問題。科萊特,你説明年你們將努力將利潤率維持在75%左右。那麼,首先,最大的成本增長來自哪里?僅僅是內存,還是其他因素?你們正在採取哪些措施來實現這一目標?比如,成本優化、預先採購和定價策略分別起到多大作用?另外,考慮到收入似乎可能大幅增長,我們應該如何看待明年的運營費用增長?
科萊特·克雷斯:斯泰西。讓我先回顧一下我們當前財年的情況。記得今年早些時候,我們表示,通過成本改善和業務結構優化,我們將在本財年末將毛利率提升至75%左右。我們已經實現了這一目標。現在,是時候向大家説明我們的下一步計劃,併爲第四季度的執行做好準備。目前,關於明年的情況,行業內已知投入成本將上漲。我們的系統絕非易事。
正如我們所考慮的,它包含大量組件,涉及多個不同部分。因此,我們正在將所有這些因素都考慮在內,但我們確實相信,如果我們再次致力於成本改善、周期時間縮短和業務結構優化,我們將努力將毛利率維持在75%左右。這是我們關於毛利率的總體計劃。你的第二個問題是關於運營費用的。目前,我們在運營費用方面的目標是,確保我們的工程團隊和所有業務團隊都能進行創新,為這個市場創造更多、更完善的系統。
如你所知,目前我們有新的架構即將推出,這意味着他們爲了實現這一目標而非常忙碌。因此,我們將繼續加大投資,在軟件、系統和硬件方面進行更多創新。如果黃仁勛先生想補充幾句,我會把話筒交給她。是的。
黃仁勛:我認為這説得很對。我想補充的一點是,記住我們會提前很久進行規劃、預測和與供應鏈談判。我們的供應鏈夥伴早就知道我們的需求,也早就知道我們的市場需求,而且我們已經與他們合作和談判了很長時間。因此,最近的增長顯然非常顯著,但請記住,我們的供應鏈已經與我們合作了很長時間。
這是一種長期合作關係。因此,在許多情況下,我們已經為自己確保了大量的供應,因為,你知道,顯然他們正在與世界上最大的公司合作。而且我們還與他們在財務方面密切合作,確保預測和規劃等工作的順利進行。所以我認為所有這些都對我們非常有利。
薩拉:最后一個問題來自富國銀行(Wells Fargo)的亞倫·雷克斯(Aaron Rakers),您的線路已接通。
亞倫·雷克斯:黃仁勛先生,我的問題是關於你們宣佈的Anthropic合作協議,以及你們客户的整體廣度。我很好奇,您對人工智能專用集成電路(ASIC)或專用芯片在這些架構建設中的作用的看法是否有任何變化?您是否看到——我認為您過去一直堅定地認為,其中一些項目從未真正實現部署。但我很好奇,現在是否已經到了一個轉折點,甚至更傾向於僅採用GPU架構?謝謝。
黃仁勛:是的。非常感謝你。我非常感謝這個問題。首先,你不是在與某家公司競爭,而是在與團隊競爭。
抱歉,你是在與公司競爭,而公司是由團隊組成的。世界上並沒有那麼多團隊能夠出色地打造這些極其複雜的產品。你知道,在Hopper和Ampere時代,我們只需要打造一款GPU。這就是加速人工智能系統的定義。但如今,我們必須打造整個機架,打造三種不同類型的交換機——縱向擴展交換機、橫向擴展交換機和跨尺度擴展交換機。如今,構建一個計算節點不再只需要一塊芯片。
由於人工智能需要內存——人工智能以前根本不需要內存,現在它必須記住事情。它所擁有的內存和上下文規模是巨大的。內存架構的影響是驚人的。模型的多樣性——從混合專家模型到密集模型、擴散模型、自迴歸模型,更不用説遵循物理定律的生物學模型——在過去幾年中,不同類型模型的數量呈爆炸式增長。
因此,挑戰在於問題的複雜性大大提高,人工智能模型的多樣性也非常大。這就是我想説的,使我們與衆不同的五個因素,如果可以的話。你知道,我想説的第一個使我們與衆不同的因素是,我們能夠加速這一轉型的每個階段。這是第一階段。CUDA使我們能夠通過CUDA X實現從通用計算到加速計算的轉型。我們在生成式人工智能方面表現出色。我們在智能體人工智能方面也表現出色。因此,在這一轉型的每個階段、每個層面,我們都表現出色。你可以投資於一種架構,在各個領域使用它;你可以使用一種架構,而不必擔心這三個階段中工作負載的變化。這是第一點。
第二點,我們在人工智能的每個階段都表現出色。每個人都知道我們在預訓練方面非常出色。顯然,我們在后訓練方面也非常出色。事實證明,我們在推理方面也非常出色,因為推理真的非常困難。思考怎麼可能容易呢?你知道,人們認為推理是一次性的,因此很容易。任何人都可以以這種方式進入市場。但事實證明,這是最難的,因為事實證明,思考是相當困難的。我們在人工智能的每個階段都表現出色,這是第二點。
第三點是,我們現在是世界上唯一能運行所有人工智能模型的架構。我們能出色地運行所有前沿人工智能模型和開源人工智能模型。我們運行科學模型、生物學模型、機器人模型,運行每一個單一模型。我們是世界上唯一能做到這一點的架構。無論你是自迴歸模型還是基於擴散模型,我們都能運行。正如我剛纔提到的,我們為所有主要平臺運行這些模型。所以我們能運行所有模型。
第四點,我想説的是,我們的產品遍佈每個雲端。開發者喜歡我們的原因是我們幾乎無處不在。我們在每個雲端都有部署。我們甚至可以為你打造一個小型雲端,稱為DGX Spark。因此,我們的產品遍佈每台計算機——從雲端到本地部署,再到機器人系統、邊緣設備、個人電腦,應有盡有。一種架構,萬物皆可運行。這太不可思議了。
最后一點,這可能是最重要的一點,第五點是,如果你是一家雲服務提供商、一家像Humane這樣的新公司、一家像CoreWeave、Enscaler、Nebius或OCI這樣的新公司,英偉達之所以是你的最佳平臺,是因為我們的產品需求非常多樣化。我們可以幫助你解決產品需求問題。
這不僅僅是將一個隨機的ASIC芯片放入數據中心那麼簡單。產品需求來自哪里?多樣性來自哪里?韌性來自哪里?架構的多功能性來自哪里?能力的多樣性來自哪里?英偉達的產品需求非常強勁,我們的生態系統非常龐大。所以這五個因素——加速和轉型的每個階段、人工智能的每個階段、每個模型、從雲端到本地部署的全覆蓋,當然,最后,所有這些都帶來了強勁的產品需求。
薩拉:謝謝。今天的電話會議到此結束。現在可以掛斷電話了。