繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

英偉達電話會:需求持續強勁,下半年供應增加,數據中心正經歷兩大轉型

2023-08-24 14:11

經歷了美股的「黑色八月」后,$英偉達(NVDA.US)$拿出了一份遠超華爾街預期的財報,再次向市場證明其價值。

財報公佈后的電話會上,英偉達表示,強勁的下游需求驅動其數據中心業務強勁增長,預計供應將在下半年顯著增加。

英偉達還宣佈:

  • 推出數據中心處理器NVIDIA L40S GPU以加速計算密集型應用,自本季度起,包括NVIDIA OVX以及搭載NVIDIA BlueFielddpu的NVIDIA AI-ready服務器均可提供。

  • 用於複雜 AI 和 HPC 工作負載的GH200超級芯片已進入全面生產,並將於本季度在OEM服務器上可用,最新的HBM內存將在2024 年第二季度發貨。

    DGX預計年末可獲得使用,谷歌雲、meta和微軟是首批獲權限的公司。在英偉達DGX雲的支持下,hugging face將為企業提供一項新服務,以訓練和調整先進的人工智能模型。

英偉達盤后一度上漲逾10%。

數據中心增長強勁,遊戲業務回暖

本季度英偉達數據中心收入同比大增171%,達到103.2億美元;遊戲業務收入同比增長22%,達24.9億美元,較上季度增長11%重回增長軌道。

英偉達表示,數據中心收入增長主要得益於雲服務提供商和大型互聯網公司對AI基礎設施的大規模投資,它們正積極採購英偉達的HGX平臺用於建設機器學習基礎設施,因此帶來了極強的購買需求。

在本季度,我們的雲服務提供商為HGX系統帶來了異常強勁的需求,因為他們正在進行新一代的轉型,以升級其數據中心基礎設施,迎接加速計算和人工智能的新時代。英偉達HGX平臺是近二十年來在硅系統、互連、網絡軟件和算法等領域全棧創新的結晶。由NvidiaH100 Tensor Core GPU提供動力的實例現已在AWS、Microsoft Azure等多個GPU雲提供商中提供,其他也即將推出。

消費者互聯網公司也帶動了非常強勁的需求。他們對為人工智能專門打造的數據中心基礎設施的投資已經帶來了顯著的回報。例如,Meta最近強調,自從推出Reels和AI推薦以來,Instagram的使用時間增加了超過24%。

遊戲業務收入增長,主要是由於英偉達新推出的RTX 40系列遊戲GPU受到消費者歡迎。英偉達表示,筆記本和臺式機市場需求強勁,這表明遊戲市場正在恢復增長:

遊戲收入為 24.9 億美元,環比增長 11%,同比增長 22%,這得益於筆記本電腦和臺式機上的 GeForce RTX 40 系列 GPU,客户需求堅實且符合季節性。

我們相信全球需求在經歷去年的放緩后已經恢復增長。我們面臨着巨大的升級機會。我們安裝基數中僅有 47% 進行了 RTX 升級,約20% 的用户擁有 RTX 30、60 或更高性能的 GPU。

筆記本電腦 GPU 在關鍵的返校季實現了強勁增長,其中以 RTX 40、60 系列為主導。搭載GPU 的筆記本電腦變得越來越受歡迎,並且在全球多個地區的出貨量現在已經超過了臺式機 GPU。這可能會改變我們整體遊戲收入的季節性,Q2 和 Q3 可能會成為全年較強的季度,反映了筆記本電腦的返校和假日裝機計劃。

軟件和服務類收入是英偉達新的增長亮點。英偉達表示,目前這塊業務收入穩步提升,已經達到每年數百億美元的規模。未來服務類收入將成為推動英偉達業績增長的重要組成部分。例如DGX Cloud合作已經獲得成功。

除數據中心和遊戲業務外,英偉達在專業可視化、自動駕駛等細分市場也保持着良好的增長態勢,這些市場存在更大的增長空間,將為英偉達業績提供新的動力。

下半年供應量增加

產能受限、供應不足,是英偉達上半年增長所面對的挑戰。在電話會上,英偉達管理層對於下半年供應量增加持樂觀態度,預計未來幾個季度供應將持續改善。

關於供應方面,我們計劃在未來季度和財年繼續增加供應量。雖然具體的增長百分比不確定,但我們對供應鏈合作和改善持樂觀態度。

我們的供應合作伙伴在提高產能方面表現出色,以支持我們的需求。

我們的數據中心供應鏈,包括擁有35000個零部件的HGX和高度複雜的網絡,已經在過去十年內建立起來。我們還為製造過程的關鍵環節,如芯片封裝,開發和認證了額外的產能和供應商。我們預計供應在明年每個季度都會增加。

另外,英偉達還表示,新推出的L40S GPU有助於緩解供應緊張,多款新產品也將豐富產品組合。

L40S其實是為不同類型的應用而設計的。H100是為大規模語言模型和處理而設計的,而這不是L40S的重點。

L40S的重點是對預訓練模型進行微調。它有一個Transformer引擎,性能強大,可以在一臺服務器中使用多個GPU。它專為超大規模擴展而設計,這意味着可以輕松地將L40S服務器安裝到全球的超大規模數據中心。它採用標準機架、標準服務器,一切都符合標準。因此,它很容易安裝。

L40S是為全球企業T系統設計的,這也是惠普、戴爾、聯想和其他20家系統制造商與我們合作的原因,他價構建了約100種不同配置的企業服務器,將生成式人工智能帶入全球企業。

總之,L40S確實是為不同類型的擴展而設計的。當然依舊是大模型,也是生成式人工智能,但它的用例不同。現在L40S有了一個良好的開端,全球企業和超大規模企業都在爭相部署L40S。

英偉達表示,儘管正提高供給,但由於下游需求過於旺盛,供不應求的狀態預計在未來一段時間仍將持續。

加速計算+生成式AI=重塑行業

英偉達管理層認為,加速計算和生成式AI正在重塑整個行業,帶來新的增長機遇。這是長期積極趨勢。

數據中心行業正經歷兩大平臺轉型:加速計算和生成式AI。這是長期趨勢,不僅提升成本效益和能源效率,還推動了整個行業的變革。數據中心資本支出正逐步聚焦於這兩個關鍵趨勢,加速計算和生成式AI,這不僅是短期現象,更是行業長期轉型的趨勢。

現在許多公司正在認識到這一轉折點,開始投資於加速計算和生成式人工智能。這可能是我們面臨的機會最簡單的方式。這個獨特的應用正在推動需求,這代表着一個新的計算平臺。正在發生的是一個全球性的新計算過渡,世界各地的數據中心都在積極響應並廣泛轉變。

英偉達還表示,正在建立的Omniverse正是爲了更廣泛行業的轉型而準備的:

我們正在建立NVIDIA Omniverse,以數字化和啟用全球數萬億美元的重工業,利用生成式AI來自動化他們建設和運營實體資產的方式,從而實現更大的生產力。生成式AI起源於雲,但最重要的機會在全球最大的產業領域,企業可以實現數萬億美元的生產率提升。

這對於NVIDIA、我們的客户、合作伙伴以及整個生態系統來説,都是一個激動人心的時刻,推動計算的這一代變革。

以下為英偉達電話會問答全文:

FY2024Q2(對應CY2023Q2)業績:

營收:第二季度總營收135.1億(美元),同比增長101%,環比增長88%。超出110億美元的預期。

數據中心計算收入同比增長了近三倍,主要是由於雲服務提供商和大型互聯網公司對雲服務需求的加速推動。對於生成式人工智能和大型語言模型引擎HGX平臺,主要公司包括AWS、GoogleCloud、Meta、Microsoft Azure和Oracle Cloud,以及日益增多的GPU雲提供商,他們正在大規模部署基於Hopper和Ampere架構的HGX系統。

網絡收入同比增長了近兩倍,主要受益於端到端的InfiniBand網絡平臺,這被視為人工智能的黃金標準。Nvidia加速計算和人工智能平臺的需求非常巨大。我們的供應合作伙伴在提高產能方面表現出色,以支持我們的需求。我們的數據中心供應鏈,包括擁有35000個零部件的HGX和高度複雜的網絡,已經在過去十年內建立起來。我們還為製造過程的關鍵環節,如芯片封裝,開發和認證了額外的產能和供應商。我們預計供應在明年每個季度都會增加。

按地理位置劃分,數據中心的增長在美國最為強勁,因為客户將其資本投資導向人工智能和加速計算。中國的需求在歷史範圍內保持在我們數據中心收入的20%到25%之間,包括計算和網絡解決方案。關於加強對我們向中國出口的管制的最新報告,我們認為當前的管制正在取得預期的成果。考慮到我們產品在全球的強勁需求,如果對我們的數據中心GPU增加進一步的出口限制,我們預計不會立即對我們的財務業績產生實質性影響。然而,從長遠來看,如果實施禁止向中國銷售我們的數據中心GPU的限制,將導致美國產業在全球最大市場之一中失去競爭和領導的機會。

在本季度,我們的雲服務提供商為HGX系統帶來了異常強勁的需求,因為他們正在進行新一代的轉型,以升級其數據中心基礎設施,迎接加速計算和人工智能的新時代。英偉達HGX平臺是近二十年來在硅系統、互連、網絡軟件和算法等領域全棧創新的結晶。由NvidiaH100 Tensor Core GPU提供動力的實例現已在AWS、Microsoft Azure等多個GPU雲提供商中提供,其他也即將推出。

消費者互聯網公司也帶動了非常強勁的需求。他們對為人工智能專門打造的數據中心基礎設施的投資已經帶來了顯著的回報。例如,Meta最近強調,自從推出Reels和AI推薦以來,Instagram的使用時間增加了超過24%。

企業也在競相部署生成式人工智能,推動了雲中使用Nvidia強力實例的消耗,以及對本地基礎設施的需求。無論是在雲端還是通過合作伙伴或直接提供服務,他們的應用都可以在Nvidia AI企業軟件上無縫運行,可訪問我們的加速庫、Rechain模型和API。我們宣佈與Snowflake合作,為企業提供使用他們自己的專有數據創建定製生成式AI應用程序的加速路徑,所有這些都在Snowflake Data Cloud中安全進行。藉助於開發大型語言模型的Nvidia Nemo平臺,企業將能夠在Snowflake Data Cloud中為高級AI服務,如聊天機器人、搜索和摘要,定製LLM(大型語言模型)。

幾乎所有行業都可以從生成式人工智能中受益。AI微軟剛剛宣佈的合作試點,提高了10億辦公室工作人員和數千萬軟件工程師的生產力。數百萬法律服務、銷售、客户支持和教育領域的專業人士將可以利用在他們領域受過培訓的AI系統。AI合作試點和援助將為我們的客户創造數千億美元的新市場機會。

我們正在看到生成式人工智能在營銷、媒體和娛樂領域的一些最早應用。全球最大的營銷和傳播服務機構WPP正在開發一個內容引擎,使用Nvidia Omniverse將生成式人工智能融入到3D內容創作中,使藝術家和設計師能夠進行集成。WPP的設計師可以根據文本提示創建圖像,同時使用經過負責任培訓的生成式AI工具和來自Nvidia合作伙伴(如Adobe)的內容。並且使用Nvidia Picasso獲取圖像,這是一個用於視覺設計的自定義生成式AI模型的鑄造廠。視覺內容提供商Shutterstock也正在使用Nvidia Picasso構建工具和服務,使用户可以藉助生成式AI創建3D場景背景。 我們與ServiceNow和Accenture合作推出了AI Lighthouse計劃,加快了企業AI能力的發展。AI Lighthouse將ServiceNow的企業自動化平臺和引擎與Nvidia的加速計算以及Accenture的諮詢和部署服務相結合。

我們還與Hugging Face合作,簡化了為企業創建新的和定製的AI模型。Hugging Face將為企業提供一個新的服務,使用Nvidia DGX Cloud提供動力,用於訓練和優化高級AI模型。 我們還與擁抱臉合作,簡化企業新定製AI模型的創建。Hugging Face將為企業提供一項新服務,訓練和調整高級AI模型,由英偉達DGX雲提供支持。

就在昨天,Vmware和Nvidia宣佈了一個名為「Vmware Private AI Foundation within Vidi」的重要企業解決方案,這是一個完全集成的平臺,包括AI軟件、加速計算和Nvidia多雲軟件,適用於運行Vmware的企業。Vmware的數十萬企業客户將能夠獲得所需的基礎設施、AI和雲管理軟件,以定製模型並運行生成式AI應用,如智能聊天助手、搜索和摘要。

我們還宣佈了新的Nvidia AI企業級服務器,配備了新的Nvidia L 40 s GPU,專為行業標準的數據中心服務器生態系統和BlueField 3 DPU數據中心基礎設施處理器而設計。L 40 s不受芯片供應限制,正在發貨給全球領先的服務器系統製造商。L40S是一個通用的數據中心處理器,專為高容量數據中心掃描和加速最計算密集的應用程序,包括AI訓練和發明審查、設計可視化、視頻處理以及Nvidia Omniverse工業可視化。

Nvidia AI企業級就緒服務器已經完全優化了Vmware CloudFoundation和Private AI Foundation。近100種配置的Nvidia AI企業級就緒服務器將很快由世界領先的企業IT計算公司提供,包括戴爾、HPE和聯想。

GH200 Grace Hopper超級芯片將我們的基於ARM的Grace CPU與Hopper GPU結合起來,已經開始全面生產,並將在本季度在OEM服務器上提供。它還在運送給多個超級計算客户,包括洛斯阿爾莫斯國家實驗室和瑞士國家計算中心。Nvidia和購物正在合作開發基於GH200的平臺,用於生成式AI和5G60應用。我們的第二代Grace超級芯片將於2024年第二季度推出,配備最新的HBM re e內存。

我們宣佈了GGX GH200,這是一種新型的大內存AI超級計算機,用於巨大的AI語言模型推薦系統和數據分析。這是新的Nvidia NV鏈接交換系統的首次應用,使其256個Grace Hopper超級芯片能夠共同工作,與我們之前一代相比,這是一個巨大的飛躍。與僅連接AGPU的方式相比。

預計BGX GH200系統將於年底前推出,谷歌雲、Meta和微軟將成為首批獲得訪問權限的企業。強勁的網絡增長主要得益於InfiniBand基礎設施,用於連接HGX GPU系統,由於其端到端的優化和網絡計算能力,InfiniBand為AI提供了超過傳統以太網兩倍的性能。對於數十億美元的AI基礎設施來説,通過InfiniBand提高的吞吐量價值數百萬美元,足以支付網絡費用。此外,只有InfiniBand才能擴展到數十萬個GPU。它是領先的AI從業者的首選網絡,適用於以以太網為基礎的雲數據中心,旨在優化其AI性能。

接下來再次宣佈 Nvidia Spectrum X,這是一款加速的網絡平臺,旨在優化以太網用於AI工作流程。Spectrum X將互聯網交換機的光譜與Blue Field 3 DPU相結合,實現與傳統以太網相比1.5倍的整體AI性能和功耗效率。Blue Field 3 DPU取得了巨大成功,正在與主要OEM廠商進行驗證,並在多家雲服務提供商和消費互聯網公司中逐步推廣。

接下來談到遊戲方面。遊戲收入為 24.9 億美元,環比增長 11%,同比增長 22%,這得益於筆記本電腦和臺式機上的 GeForce RTX 40 系列 GPU,客户需求堅實且符合季節性。我們相信全球需求在經歷去年的放緩后已經恢復增長。我們面臨着巨大的升級機會。我們安裝基數中僅有 47% 進行了 RTX 升級,約20% 的用户擁有 RTX 30、60 或更高性能的 GPU。筆記本電腦 GPU 在關鍵的返校季實現了強勁增長,其中以 RTX 40、60 系列為主導。搭載GPU 的筆記本電腦變得越來越受歡迎,並且在全球多個地區的出貨量現在已經超過了臺式機 GPU。這可能會改變我們整體遊戲收入的季節性,Q2 和 Q3 可能會成為全年較強的季度,反映了筆記本電腦的返校和假日裝機計劃。

在臺式機方面,我們推出了 GeForce RTX 4060 和 GeForce RTX 4060 Ti GPU,將 Ada Love Lace 架構的價格降至 299 美元。RTX 和 DLSS 遊戲生態系統繼續擴大。新增了 35 款支持 DLSS 的遊戲,包括《暗黑破壞神 4》和《爐石傳説:焰塵戰記》等暢銷遊戲。現在有超過 330 款支持 RTX 加速的遊戲和應用程序。我們正在將生成式 AI 應用於遊戲。在 Computex 上,我們宣佈了面向遊戲的 Nvidia Avatar CloudEngine 8,這是一個定製的 AI 模型工廠服務。開發人員可以使用該服務賦予非玩家角色智能。它利用了多個 Nvidia Omniverse 和 AI 技術,包括 Email、Reva 和 audioto face。

現在轉向專業可視化領域。收入為 3.75 億美元,環比增長 28%,同比下降 24%。Ada 架構的推出帶動了強勁的增長,首先在筆記本工作站上進行了更新,臺式機工作站的更新將於 Q3 推出。這些系統將配備高達四顆 Nvidia RTX 6000 GPU,提供超過 5800 特拉弗的 AI 性能和192GB 的 GPU 內存。它們可以配置 Nvidia AIEnterprise 或 Nvidia Omniverse Enterprise。我們還宣佈了三款基於 Ada 架構的新臺式機工作站 GPU,即 Nvidia RTX 5040、5000 和 4000,相較上一代,RT 核心吞吐量提升了最多 2 倍,AI 訓練性能提升了最多 2 倍。除了傳統的 3D 設計和內容創作工作負載外,新的工作負載和生成式 AI 大語言模型的開發以及數據科學正在擴大我們的 RTX 技術在專業可視化領域的機會。

在汽車領域,收入為 2.53 億美元,環比下降 15%,同比增長 15%。穩健的同比增長主要是由基於 NVIDIA Drive 的自動駕駛平臺的推出推動的,該平臺在多家新能源汽車製造商中得到了應用。環比下降反映了整體汽車需求的下降,特別是在中國。我們宣佈與聯發科技合作,為駕駛員和乘客在汽車內部提供新體驗。聯發科技將開發汽車 SoC,並整合新的 Nvidia GPU 產品線。該合作伙伴關係涵蓋從豪華車到入門級車型的各個汽車領域。繼續談談財務報表的其他部分,按照美國通用會計準則 (GAAP),毛利率擴大至70.1%,非按照美國通用會計準則 (Non-GAAP) 的毛利率擴大至 71.2%,這主要是由於數據中心銷售增加。我們的數據中心產品包括大量的軟件和複雜性,這也有助於推動毛利率增長。環比下,按照 GAAP 的運營費用上升了 6%,非按照 GAAP 的運營費用上升了 5%,主要反映出薪酬和福利的增加。我們以股票回購和現金股息的形式向股東返還了約 34 億美元。我們的董事會剛剛批准了額外的 250 億美元的股票回購,將添加到我們截至 Q2 結束時剩余的 40 億美元的授權額度。接下來,我們可以關注一下財年 2024 第三季度的展望。

我們的 AI 數據中心平臺需求巨大,跨足多個行業和客户。我們的需求可見度延伸至明年。未來幾個季度,我們的供應將繼續增加,因為我們降低周期時間並與供應合作伙伴合作增加產能。此外,新的 l4 DS GPU 將有助於滿足從雲計算到企業等多種工作負載的不斷增長需求。

FY2024Q3指引:

預計總收入為160億美元左右,波動範圍為正負2%。預計環比增長主要由數據中心推動,同時遊戲和專業可視化領域也會有所貢獻。

根據通用會計準則(GAAP)和非通用會計準則(Non-GAAP)的毛利率將分別為71.5%和72.5%,波動範圍為正負50個基點。

根據通用會計準則(GAAP)和非通用會計準則(Non-GAAP),運營費用預計分別為約29.5億美元和20億美元。

根據通用會計準則(GAAP)和非通用會計準則(Non-GAAP),其他收入和費用預計將為約10萬美元的收入。不包括非運營投資的盈虧,根據通用會計準則(GAAP)和非通用會計準則(Non-GAAP)的税率預計將為14.5%,正負1%,不包括任何離散項。

Q&A

Q:您預計未來一年新增供應量增長幅度是多少?大約20-30%,40-50%還是其他?您能談談您對超大規模支出的信心嗎?儘管整體市場增長不大,您如何確信他們會繼續增加用於生成式AI的投資?請分享一下未來一到兩年需求的可持續性看法。以及如果參考您對第三季度數據中心展望,大約1213億美元,這對已進行AI加速的服務器數量以及未來部署的影響如何?請簡要説明您對未來一到兩年持續增長的信心。

A:關於供應方面,我們計劃在未來季度和財年繼續增加供應量。雖然具體的增長百分比不確定,但我們對供應鏈合作和改善持樂觀態度。

世界上已經安裝了約一萬億美元價值的數據中心,分佈在雲端、企業和其他領域。數據中心行業正經歷兩大平臺轉型:加速計算和生成式AI。這是長期趨勢,不僅提升成本效益和能源效率,還推動了整個行業的變革。數據中心資本支出正逐步聚焦於這兩個關鍵趨勢,加速計算和生成式AI,這不僅是短期現象,更是行業長期轉型的趨勢。

Q:我認為最引人注目的是這些數字中仍然存在大量未滿足的需求。儘管收入在短短几個季度內增長超過兩倍,客户反饋顯示,有些情況下人們得到的還遠遠不及他們實際需要的數量。您能否談一下您認為尚未滿足的需求有多大,並且您提到了對明年的展望。您是否已經能夠預見何時實現供需平衡?

A:是的,我們在今年和明年都有很好的前景。我們正在規劃下一代基礎設施,並與主要的CSP和數據中心建設商合作。需求方面,最簡單的理解方式是,全球正在從通用計算向加速計算過渡。這是需求的最簡單思考方式。對於企業提升吞吐量,最佳途徑是提高能源效率和降低成本效率。這意味着將資金投入加速計算和共享基礎設施,因為這樣可以將許多工作流從CPU卸載,提升可用的CPU性能。因此,現在許多公司正在認識到這一轉折點,開始投資於加速計算和生成式人工智能。這可能是我們面臨的機會最簡單的方式。這個獨特的應用正在推動需求,這代表着一個新的計算平臺。正在發生的是一個全球性的新計算過渡,世界各地的數據中心都在積極響應並廣泛轉變。

Q:上個季度,Colette提到CSP(雲服務提供商)佔據了數據中心收入的大約40%,消費者互聯網佔30%,企業佔30%。根據您的講話,CSP和消費者互聯網可能在業務中佔比更大,如果能澄清或確認一下,將會非常有幫助。然后是關於Jensen的問題。作為AI的關鍵推動者,您對於客户是否能夠從應用或用例中獲得合理的投資回報充滿信心嗎?我提出這個問題是因為有人擔憂在未來的幾年中您的需求情況可能會有所停滯。我想了解是否有足夠的廣度和深度來支持您的數據中心業務持續增長?

A:感謝關於我們數據中心業務不同類型客户的問題的澄清。在第二季度,大型雲服務提供商(CSP)貢獻了50%以上的收入,其次是消費者互聯網公司。至於未來,難以準確預測季度變化,但趨勢是明確的,我們正經歷平臺轉型,從通用計算向加速計算轉變,加速計算可廣泛用於各種應用,有着巨大的潛力。與此同時,我們與VMware合作,推出了支持GPU虛擬化和分佈式計算的VMware Private AI Foundation版本,使企業能夠構建先進的AI數據中心。這是一個全球性的趨勢,不僅適用於雲端,還涵蓋了地區性的GPU專業雲服務提供商,為持續的數據中心業務增長提供了廣泛支持。

Q:L40S對解決供應緊張有多大幫助? L40能起到多大作用呢?是否你能談談這個產品的增量盈利能力或毛利率貢獻?

A:L40S其實是為不同類型的應用而設計的。H100是為大規模語言模型和處理而設計的,而這不是L40S的重點。L40S的重點是對預訓練模型進行微調。它有一個Transformer引擎,性能強大,可以在一臺服務器中使用多個GPU。它專為超大規模擴展而設計,這意味着可以輕松地將L40S服務器安裝到全球的超大規模數據中心。它採用標準機架、標準服務器,一切都符合標準。因此,它很容易安裝。L40S是為全球企業T系統設計的,這也是惠普、戴爾、聯想和其他20家系統制造商與我們合作的原因,它構建了約100種不同配置的企業服務器,將生成式人工智能帶入全球企業。

總之,L40S確實是為不同類型的擴展而設計的。當然依舊是大模型,也是生成式人工智能,但它的用例不同。現在L40S有了一個良好的開端,全球企業和超大規模企業都在爭相部署L40S。

Q:能談一下您出貨的計算產品中有多少與網絡解決方案一起出售嗎?大約一半的計算產品是否搭載了您的網絡解決方案?您是否可以用這個信息來進行資源分配的優先級排序?

A:我們從后往前考慮。我們不使用這個來優先分配GPU資源。我們讓客户自行決定使用何種網絡。對於構建大型基礎架構的客户來説,選擇使用InfiniBand幾乎是理所當然的,因為InfiniBand的效率非常高。在數十億美元的基礎設施中,吞吐量提高10/15/20%,節省巨大。基本上,網絡是免費的。因此,如果基礎設施用於單一應用,或主要用於大型語言模型或AI系統,選擇InfiniBand是明智的選擇。對於為多個用户提供服務且以以太網為核心的情況,我們有優秀的解決方案,即Spectrum X。它將部分InfiniBand功能應用於以太網,可在以太網環境中實現出色共享和智能網卡功能。Spectrum X正在逐步推出,需要Bluefield 3,支持Spectrum 2和Spectrum 3以太網交換機,性能顯著提升,有多款相關軟件。Bluefield是我心中的重要項目,已經取得了巨大成功。在網絡計算中加入大量軟件的概念,通過Bluefield 3實現,將在計算網絡中取得巨大成功。

Q:關於DGX Cloud的接受程度和動力,以及軟件業務的運營速率和影響利潤率的程度,請您談一下。

A:DGX Cloud戰略旨在實現幾個目標。首先,實現我們與全球CSP之間的緊密合作夥伴關係。我們意識到我們與世界各地的約3萬家公司合作,其中1.5萬家是創業公司,數千家是生成式AI公司。而增長最快的領域當然是AI。我們與全球所有的AI創業公司合作。他們最終希望能夠進入全球任何一個雲,並因此我們在全球領先的雲中建立了DGX Cloud,以便能夠與所有AI合作伙伴同時合作,並幫助他們輕松地進入我們的雲合作伙伴之一。第二個好處是,它使我們的CSP以及我們能夠緊密合作,以改進為多租户而設計的超大規模計算中心的性能,這些中心從歷史上設計用於高性能分佈式計算,如生成式AI。因此,能夠在架構上密切合作,讓我們的工程師緊密合作,以提高網絡性能和計算性能,效果非常顯著,非常出色。第三,當然,NVIDIA本身使用非常大的基礎架構。我們的自動駕駛車隊,我們的深度研究團隊,我們的生成式AI團隊,我們的語言模型團隊,所需基礎架構的數量相當可觀,沒有DGX系統,我們的任何優化編譯器都不可能存在,現在甚至編譯器都需要AI,而且優化軟件和基礎架構軟件的開發也需要AI。衆所周知,我們的工程使用AI來設計芯片,我們內部對AI的消費也非常大,我們的機器人團隊,Omniverse團隊等等,都需要AI。所以,我們的內部消費也很大,並將其引入了DGX Cloud。DGX Cloud具有多種用途、多種驅動因素,已經在我們的CSP和開發人員中取得了巨大成功,我們的內部工程師主要是想要更多,這對我們來説是與全球各地的所有AI系統緊密合作的絕佳方式。至於關於我們的軟件收入的問題,我會在我們的開場白中進行回答,幾乎所有產品都支持部分,無論是數據中心產品、GPU系統還是遊戲產品,還有未來的汽車產品。您是對的,我們也在努力提供軟件服務升級。目前,我們每年的軟件業務收入可能已經達到數百億美元,我們正在推出許多支持Invidia AI的產品,如DGX、我們的TC、H100的IE版本等,我認為我們還會在我們的CST市場中看到更多可用性。我們已經有了一個良好的起步,我相信我們將會繼續取得成功。

新的計算時代已經開始。行業正在同時經歷兩個平臺轉型,加速計算和生成式AI。數據中心正在從通用計算轉向加速計算。全球數萬億美元的數據中心將實現過渡,從而實現性能、能源效率和成本的數量級提升。加速計算使生成式AI成為可能。這正在推動軟件的平臺轉型,並實現了以前不可能的新應用。加速計算和生成式AI共同推動了廣泛的計算行業平臺轉型。我們面臨巨大的需求。我們正在大幅擴展產品生產能力。供應將在今年余下時間和明年大幅增加。大家已經為此準備了20多年,並且創造了一個全球產業可以構建的新計算平臺。我們的特色在於三個方面:一是架構。NVIDIA從數據處理、訓練、推理到各種AI模型,實時語音到計算機視覺,巨大的推薦系統到向量數據庫,都進行了加速。我們的架構的性能和多功能性可以轉化為最低的數據中心總擁有成本和最佳的能源效率。二是裝機基數。全球範圍內有數以億計與CUDA兼容的GPU。開發者需要龐大的裝機基數才能觸達終端用户並發展業務,NVIDIA是開發者首選的平臺。更多開發者創造更多應用,使NVIDIA對客户更有價值。三是覆蓋範圍。NVIDIA覆蓋了媒體和雲、企業數據中心、工業邊緣、個人電腦、工作站、儀器和機器人等領域。每個領域都有基本不同的計算模型和生態系統,系統供應商如OEM生產商可以對NVIDIA進行有信心的投資,因為我們提供了強大的市場需求和覆蓋範圍。此外,我們已經實現了大規模並且100%投入於加速計算和生成式AI。我們的生態系統合作伙伴可以信任我們擁有專業知識、專注性和規模,可以提供強大的路線圖和擴展範圍,以幫助他們增長。我們之所以加速,是因為這些能力的累加效果。我們每六個月左右就會升級和推出新產品,以應對不斷擴大的生成式AI領域,同時我們還在增加H100的產量,用於訓練和推理大型語言模型。我們正在推出新的L40S通用GPU,用於雲規模和企業服務器的擴展,Spectrum X包括我們的以太網交換機、Bluefield 3、Supernet和軟件,有助於希望在以太網基礎架構上獲得最佳AI性能的客户。客户已經開始與我們的Grace Hopper一起進行下一代加速計算和生成式AI的研發。我們正在將NVIDIA AI擴展到需要生成式AI的全球企業,但同時要考慮模型的隱私、安全性和主權。與世界領先的企業IT公司,如Accenture、Adobe、Getty、Hugging、Face、No Flake、ServiceNow、VMware和WP,以及我們的企業系統合作夥伴Dell、HP和Lenovo一起,我們正在將生成式AI帶入全球企業。我們正在建立NVIDIA Omniverse,以數字化和啟用全球數萬億美元的重工業,利用生成式AI來自動化他們建設和運營實體資產的方式,從而實現更大的生產力。生成式AI起源於雲端,但最重要的機會在全球最大的產業領域,企業可以實現數萬億美元的生產率提升。

編輯/ruby

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。