简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

Nvidia 2026财年第三季度盈利电话会议记录

2025-11-20 08:07

英伟达公司(NVIDIA Corp.)(NASDAQ:NVDA)在周三收盘后发布了第三季度财报。

通话记录如下:

此文字记录由Beninga API为您带来。如需实时访问我们的整个目录,请访问Benzinga API进行咨询。

黄仁森首席执行官

谢谢科莱特。关于人工智能泡沫的讨论很多。从我们的有利位置,我们看到了一些非常不同的东西。值得提醒的是,英伟达与任何其他加速器不同。我们在人工智能的每个阶段都表现出色,从训练前、训练后到推理,凭借对CUDA X加速库的二十年投资,我们在科学和工程模拟、计算机图形学、结构化数据处理到经典机器学习方面也表现出色。

世界正在同时经历三次大规模的平台转变。这是自摩尔定律问世以来的第一次。Nvidia正在独特地解决这三种转变中的每一种。第一个过渡是从中央处理通用计算到图形处理器加速计算。随着摩尔定律的放缓,世界对从数据处理到科学和工程模拟的非人工智能软件进行了大量投资,每年在云计算上花费数千亿美元。其中许多曾经仅在处理器上运行的应用程序现在正在迅速转向CUDA。图形处理器加速计算已经达到了一个临界点。

其次,人工智能也达到了一个临界点,正在改变现有应用程序,同时为现有应用程序启用全新的应用程序。生成性人工智能正在搜索排名、推荐系统、广告定位、点击预测到内容审核等领域取代经典机器学习。超大规模基础设施的基础。Meta的gem是在大规模图形处理器集群上训练的广告推荐的基础模型,体现了第二季度的这一转变。Meta报告说,在基于生成式人工智能的Gem的推动下,Instagram上的广告转化率增加了5%,Facebook上的广告转化率增加了3%。向生成性人工智能的过渡意味着超大规模企业的可观收入增长。

现在,新一波浪潮正在兴起。强大的人工智能系统能够推理、规划和使用工具,从Cursor和quadcode等编码助理到idoc等放射学工具、Harvey等法律助理以及特斯拉、FSD和Waymo等人工智能司机。这些系统标志着计算的下一个前沿。当今世界上增长最快的公司OpenAI、Anthropic、XAI、Google、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridged、Tesla都是代理人工智能的先驱。因此,有三个大规模的平台转变。向加速计算的过渡是基础性和必要的,在后摩尔定律时代至关重要。向生成性人工智能的过渡是变革性的且必要的,可以为现有的应用程序和商业模式提供强大的动力。向代理人工智能和物理人工智能的过渡将是革命性的,会产生新的应用程序、公司、产品和服务。

在考虑基础设施投资时,尽可能考虑这三个基本动态。每一个都将为未来几年的基础设施增长做出贡献。之所以选择英伟达,是因为我们的独特架构能够实现所有三个转变,因此适用于所有行业、人工智能的每个阶段、云中以及从云到企业再到机器人的所有不同计算需求的任何形式和形式的人工智能。一栋建筑Toshio,回到您身边。我们现在开始提问。接线员,请您提问好吗?

操作者

谢谢此时我要提醒大家,为了提问,请按星。发送电话键盘上的数字1。我们将暂停片刻来编制问答名单。提醒一下,请限制自己回答一个问题。谢谢您的第一个问题来自摩根士丹利的约瑟夫·摩尔。您的线路已开通。

摩根士丹利分析师

太好了,谢谢。我想知道您是否可以向我们通报最新情况。您在GTC 25日和26日谈到了布莱克威尔和鲁宾的5000亿美元收入,当时您谈到了其中1500亿美元已经发货。因此,当季度结束时,这些仍然是一般参数吗?在下一个,你知道,14个月左右的时间里,还有3500亿美元,你知道,我假设在那段时间里,你还没有看到所有的需求,随着我们前进,这些数字有可能出现颠倒。

黄仁森首席执行官

是的,谢谢乔。我首先要对此做出回应。是的.我们正在努力实现5000亿美元的预测,我们即将实现这一目标,因为我们已经完成了部分季度,现在我们已经有几个季度了,我们将带领我们度过26年年底。这个数字将会增加,我确信我们将在26财年实现可交付的额外计算需求。所以我们本季度发货了500亿,但如果我们不说我们可能会接受更多订单,我们就不会完成。例如,即使在今天,我们与KSA的公告以及该协议本身就意味着在三年内增加400至600,000个图形处理器。Anthropic也是全新的。因此,我们肯定有机会在我们宣布的5000亿美元之外获得更多资金。

操作者

下一个问题来自CJ Muse和Cantor Fitzgerald。您的线路已开通。

Cantor Fitzgerald分析师

是的,下午好。感谢您回答这个问题。显然,人工智能基础设施建设的规模以及在投资回报率中为此类计划提供资金的能力令人感到非常震惊。然而你知道,同时你正在谈论被出卖。每个站立的全科医生都被带走了。你知道,世界还没有看到300的巨大好处。算了鲁宾和双子座3刚刚宣布Groc 5即将推出。所以问题是,当你将其视为背景时,你是否认为未来12至18个月供应赶上需求的现实路径,或者你认为它可以延长到这一时间范围之外?

黄仁森首席执行官

嗯,如您所知,我们在供应链规划方面做得非常好。英伟达供应链基本上包括世界上的每一家科技公司、台积电及其包装、我们的内存供应商和内存合作伙伴以及我们所有的系统CDM都与我们一起做了非常好的工作规划,我们正在计划度过重要的一年。你知道,我们已经看到我所说的三个转变一段时间了。就在一秒钟前,通用计算加速了计算。非常重要的是要认识到人工智能不仅仅是代理人工智能,生成性人工智能正在改变超大规模者过去在中央处理器上完成工作的方式,生成性人工智能使他们能够移动搜索和推荐系统,添加推荐和定位。所有这些都已经生成,已经转移到生成人工智能,而且它仍在过渡中。

因此,无论您安装了Nvidia GPS用于数据处理,还是为推荐系统的生成性人工智能而设计,或者您正在为代理聊天机器人和大多数人在考虑人工智能时看到的人工智能类型构建它,所有这些应用程序都是由Nvidia加速的。当您查看总支出时,考虑每一层非常重要。它们都在成长,它们是相关的,但并不相同。但美妙的是,它们都同时运行在Nvidia的图形处理器上,因为人工智能模型的质量正在惊人地提高。IT在不同用例中的采用,无论是在代码协助中,Nvidia对此进行了相当详尽的使用。而且我们不是唯一的一个。我的意思是历史上增长最快的应用程序,结合了鼠标和云代码以及OpenAI的编解码器,以及GitHub Copilot,这些应用程序是历史上增长最快的。它不仅用于软件工程师,而且由于Vibe编码,整个公司的工程师和营销人员、整个公司的供应链规划者都使用它。所以我认为这只是一个例子。名单还在继续。无论是公开的证据和他们在医疗保健方面所做的工作,还是在数字视频编辑方面所做的工作,Runway和我的意思是,利用生成性人工智能和代理人工智能的真正非常令人兴奋的初创公司数量正在迅速增长。更不用说我们都更多地使用它了。

所以所有这些指数,更不用说今天我读了德米斯的一篇文章,他说训练前和训练后完全完好无损,双子座3利用了缩放定律,上帝在质量性能、模型性能方面得到了巨大的飞跃。我们看到所有这些指数同时运行。只要总是回到首要原则,思考我之前提到的每一种动态会发生什么。通用计算到加速计算,生成性人工智能取代经典机器学习,当然还有代理人工智能,这是一个全新的类别。

操作者

下一个问题来自美国银行证券的Vivek Arya。您的线路已开通。

美国银行分析师

感谢您回答我的问题。我很好奇,您对Nvidia每千兆瓦的内容有何假设?因为我们听到的数字低至每千兆瓦内容250亿,高至每千兆瓦内容300或400亿。所以我很好奇,作为5000亿数字以及更长期的一部分,您对每千兆瓦的功率和美元做出了什么假设。Jensen提到了到2030年将达到3到4万亿的数据中心。您认为其中有多少需要供应商融资?其中有多少可以由您的大客户、政府或企业的现金流支持?谢谢

黄仁森首席执行官

在每一代人中,从Ampere到Hopper,从Hopper到Blackwell,Blackwell到Rubin,我们都是数据中心增长的一部分。霍珀一代可能是20岁左右,一些奇怪的20到25岁的布莱克威尔一代,尤其是格蕾丝·布莱克威尔可能是30到30岁,你知道,说30加或减。然后鲁本可能比这个更高。在每一代中,速度的提高都是X倍,因此他们的tco、客户总体拥有成本的提高也是X倍。最重要的是最终你仍然只有1吉瓦的电力。您知道,1千兆瓦数据中心相当于1千兆瓦的功率,因此每瓦的性能也就是1千兆瓦。架构的效率非常重要。而且架构的效率不能被强行强迫。这并不是强行的。这1千兆瓦直接翻译过来。你的每瓦性能直接、绝对直接转化为你的收入。这就是为什么选择正确的架构如此重要。

现在你知道了,世界上没有多余的东西可以浪费。所以我们必须非常非常,你知道,我们在我们的整个堆栈、框架和模型、整个数据中心中使用这个称为协同设计的概念。甚至在我们生态系统中的整个供应链中优化了电力和冷却。因此,每一代人我们的经济贡献都会更大,我们创造的价值也会更大。但最重要的是,我们的人均能源效率将非常出色。每一代人如何成长为持续增长客户融资取决于他们。我们看到了一段时间内增长的机会。请记住,今天的大部分焦点都集中在超大规模者身上。对于超级扩展器真正被误解的一个方面是,对Nvidia图形处理器的投资不仅提高了通用计算的规模、速度和成本。这是第一位,因为摩尔定律的扩展确实减慢了。摩尔定律是关于降低成本。这是关于通货紧缩成本,随着时间的推移,计算的令人难以置信的通货紧缩成本。但这种情况已经放缓。因此,他们需要一种新的方法来继续降低成本。使用Nvidia图形处理确实是最好的方法。

二是增加收入。在当前的商业模式中,推荐系统推动了世界上的超大规模者。每一件事,无论是观看简短视频还是推荐书籍,还是推荐购物篮中的下一件商品,到推荐广告,到推荐新闻,到,都是关于读者的。世界上有,互联网有数万亿条内容。除非他们有非常复杂的推荐系统来做到这一点,否则他们怎么可能知道在你的小屏幕上放什么?好吧,这已经变成了生成人工智能。所以我刚才说的前两件事,数千亿美元的资本支出必须投资,是完全现金流资金。因此,在它之上的是代理人工智能。这是净新收入、净新消费,但它也是净新应用。还有我之前提到的一些应用程序,但这些新应用程序也是历史上增长最快的应用程序。好吧,所以我,我认为,我,你会看到,你会看到,一旦人们开始欣赏水下实际发生的事情,如果你愿意的话,从资本支出投资发生的事情的简单化角度来看,认识到有这三种动态。

最后,请记住我们刚刚谈论的是美国的CSC。每个国家都将资助自己的基础设施。你有多个国家,你有多个行业。世界上大多数行业还没有真正使用代理人工智能,而且他们即将这样做。你知道所有你认识的、我们正在合作的公司的名字,你知道,无论是自动驾驶汽车公司还是数字双胞胎,无论是物理人工智能,还是工厂以及世界各地正在建造的工厂和仓库的数量,只是数字生物初创公司的数量正在得到资助,以便我们可以加速药物发现。所有这些不同的行业现在都在参与其中,他们将进行自己的筹款活动。因此,不要仅仅将超大规模者视为为未来建设的一种方式。你必须看看世界,你必须看看所有不同的行业,你知道,企业计算将为自己的行业提供资金。

操作者

下一个问题来自Melius的Ben Reitzes。您的线路已开通。

梅利厄斯分析师

嘿,非常感谢,詹森。我想问你关于现金的问题。说到五万亿,未来几年可能会产生大约五万亿的自由现金流。你对这笔现金有何计划?回购与投资生态系统有多少钱?您如何看待投资生态系统?我认为对于这些交易的运作方式以及您进行这些交易的标准存在很多困惑,例如anthropic、OpenAI等。非常感谢。

黄仁森首席执行官

是的,我很感激这个问题。当然,使用现金来资助我们的增长。没有一家公司能够达到我们所说的规模,并且拥有英伟达所拥有的联系、供应链的深度和广度。我们的整个客户群之所以能够依赖我们,是因为我们已经确保了一个非常、非常有弹性的供应链,并且我们有资产负债表来在我们进行采购时为他们提供支持。当我们做出预测并与他们一起制定计划时,我们的供应商可以将其带到银行。他们因为我们的资产负债表而认真对待我们。我们不,我们不补油。我们知道我们的产量是多少。而且,因为他们已经和我们一起计划了这么多年,我们的声誉和信誉是难以置信的。因此,这需要非常强大的资产负债表才能做到这一点,以支持增长水平和增长率以及与之相关的幅度。所以这是第一。

当然,第二件事,我们将继续进行股票回购,我们将继续这样做。但就投资而言,这是我们所做的非常非常重要的工作。到目前为止,我们所做的所有投资都与扩大cuda的影响范围、扩大生态系统有关。如果你看看我们与OpenAI所做的投资,当然是我们自2016年以来一直保持的关系。我向OpenAI交付了有史以来第一台人工智能超级计算机。因此,从那时起,我们就与OpenAI建立了密切而美好的关系。OpenAI所做的一切今天都在Nvidia上运行。因此,他们部署的所有云,无论是训练还是推理,都运行Nvidia。我们喜欢与他们合作。我们与他们的合作伙伴关系是为了让我们能够从技术角度更深入地工作,以便我们能够支持他们的加速增长。你知道,这是一家增长速度惊人的公司。不要只看,不要只看媒体上的说法,看看所有生态系统合作伙伴和所有与OpenAI相关的开发人员,他们都在推动OpenAI的消费以及正在生产的人工智能的质量,自一年前以来大幅提高。所以反应的质量是非凡的。因此,我们投资OpenAI,以建立深度合作伙伴关系,共同发展,扩大我们的生态系统并支持其发展。当然,我们并没有放弃我们公司的股份,而是得到了他们公司的股份,我们投资了他们,投资了一代人中最重要的公司之一,投资了一家我们拥有股份的通用公司。因此,我完全期待这项投资能够转化为非凡的回报。

现在,就Anthropic而言,这是Anthropic首次出现在Nvidia的建筑上。Nvidia首次成为Anthropic将在Nvidia的架构上,就用户总数而言,Nvidia是世界上第二成功的人工智能。但在企业界,他们做得非常好。Claude Code做得非常好,云做得非常好,所有世界企业都做得非常好。现在我们有机会与他们建立深入的合作伙伴关系,并将Claude带入Nvidia平台。那么我们现在拥有什么呢?英伟达的架构。退一步说,英伟达的架构。Nvidia的平台是世界上运行所有人工智能模型的唯一平台。我们运行OpenAI,我们运行Anthropic,我们运行XAI。由于我们与埃隆和XAI的深厚合作伙伴关系,我们能够将这个机会带到沙特阿拉伯、KSA,这样Humane也可以为Xai提供机会。我们运行xai,我们运行双子座,我们运行思维机器。让我们看看,我们还运行什么?我们运行它们。更不用说我们运行科学模型、生物模型、DNA模型、基因模型、化学模型以及世界各地的所有不同领域。世界使用的不仅仅是认知人工智能。人工智能正在影响每个行业。通过我们所进行的生态系统投资,我们有能力在技术基础上与世界上一些最优秀、最杰出的公司建立深度合作伙伴关系。我们正在扩大生态系统的影响力,并获得了对威尔的投资份额,一旦进入一代公司,它通常就会成为一家非常成功的公司。所以基本的。这是我们的,这是我们的投资论点。

操作者

下一个问题来自高盛的吉姆·施耐德。您的线路已开通。

高盛分析师

下午好.感谢您回答我的问题。过去,您曾谈到大约40%的发货与人工智能推断有关。我想知道,当你展望明年时,你预计这个百分比会在一年后上升到什么程度?我们是否可以讨论您预计明年推出的Rubin CPX产品,并根据您预计该产品可以占用多大的总体LAM,并讨论该特定产品的一些目标客户应用程序。谢谢

黄仁森首席执行官

CPX专为长上下文类型的工作负载生成而设计,因此长上下文,基本上在开始生成答案之前,您必须阅读大量内容,基本上,您知道,长上下文。它可以是一堆PDF文件,可以观看一堆视频,研究3D图像,等等。你必须,你必须吸收上下文。因此,CPX专为长上下文类型的工作负载而设计,而且它的性能也很好。每美元是perf。每一美元都很棒。这是per。因为什么是优秀的,这让我忘记了问题的第一部分。

未知

推理。

黄仁森首席执行官

哦,推论。是啊有三个缩放定律同时缩放。第一个缩放定律,称为预训练,仍然非常有效。第二是后期培训。后培训基本上找到了令人难以置信的算法,可以提高人工智能分解问题并逐步解决问题的能力。培训后的规模正在呈指数级增长。基本上,您对模型应用的计算越多,它就越智能,它就越智能。第三个是推理。推理是因为思想链,因为推理能力。人工智能本质上是在思考之前阅读思考。这三件事所需的计算量完全呈指数级增长。我认为很难确切知道在任何特定时间点的百分比以及谁。但当然,我们的希望是推论是市场的很大一部分。因为如果推理很大,那么它表明人们正在更多的应用程序中使用它,并且使用它的频率更高。我们都应该希望推论非常大。这就是格蕾丝·布莱克威尔比世界上任何事物都更好、更先进一个数量级的地方。第二好的平台是H200,现在很明显,GB 300、GB 200 GB 300,因为MV link 72,我们已经实现了扩展网络,您看到了Colette在半分析基准测试中谈到了这一点,这是有史以来最大的单一推断基准,GB 200 MV link 72的性能高出10倍、10到15倍。所以这是一个很大的进步。需要很长时间才能有人能够承担这一任务。我们在那里的领导肯定需要多年的时间。我希望推论成为一件非常重要的事情。我们的领导力和推理是非凡的。

操作者

下一个问题来自瑞银的蒂莫西·阿库里(Timothy Arcuri)。您的线路已开通。

瑞银分析师

非常感谢詹森。您的许多客户都在追求电表功率,但您担心的、可能限制您增长的最大瓶颈是什么?是电力,还是融资,或者是内存,甚至是铸造。非常感谢.

黄仁森首席执行官

好吧,这些都是问题,都是限制。原因是,当你以我们这样的速度和规模增长时,事情怎么会容易呢?英伟达正在做的事情显然是以前从未做过的。我们创造了一个全新的行业。一方面,我们正在将计算从通用计算和经典或传统计算过渡到加速计算和人工智能。这是一方面。另一方面,我们创建了一个全新的行业,称为人工智能工厂。为了让软件运行,你需要这些工厂来生成它,生成每个令牌,而不是检索预先创建的信息。所以,所以我认为这整个转变需要非凡的规模。从供应链开始,当然是我们拥有的供应链,我们有更好的可见性和控制力,因为你知道,显然我们非常擅长管理我们的供应链。我们拥有与我们合作了33年的优秀合作伙伴。因此,供应链部分,我们现在对我们的供应链充满信心。我们现在已经与土地、权力和壳牌领域的许多参与者建立了合作伙伴关系,当然还有这些事情的融资。这些事情都不容易,但它们都是可以处理的,都是可以解决的。我们要做的最重要的是做好工作规划。我们计划供应链向上,供应链向下。我们已经建立了很多合作伙伴,因此我们有很多进入市场的途径,非常重要的是,我们的架构必须为我们拥有的客户提供最佳价值。因此,此时您知道,我非常有信心Nvidia的架构是每个tco的最佳性能。这是每瓦性能最好的。因此,对于交付的任何数量的能源,我们的架构都将带来最大的收入。我认为,公司。我们的成功率不断提高,我认为我们今年此时比去年此时更加成功。你知道,来到我们这里的客户数量以及在探索其他人后来到我们这里的平台数量正在增加,而不是减少。所以我认为,我认为这一切都是,你知道,我这些年来一直告诉你的所有事情真的即将到来,正在成为现实,或者变得明显。

操作者

下一个问题来自伯恩斯坦研究中心的史黛西·拉斯贡。您的线路是开放问题。

Bernstein分析师

科莱特,我对页边有一些问题。你说明年,你将努力将它们控制在70年代中期。所以我想首先,最大的成本增加是什么?这只是记忆还是其他东西?您正在采取哪些措施来实现这一目标?成本优化与预购与定价的关系有多大?还有,我们应该如何看待明年的运营支出增长,因为收入似乎很可能从我们现在的水平大幅增长?

Colette Kress首席财务官

谢谢你史黛西让我看看我能不能从回忆起我们本财政年度的情况开始。请记住,今年早些时候,我们表示,通过成本改善和组合,我们将退出今年在我们的毛利率在70年代中期。我们已经实现了这一目标,并准备在第四季度执行这一目标。所以现在是我们沟通的时候了。明年我们现在在哪里工作?明年,我们需要解决一些行业众所周知的投入价格。我们的系统绝非易事。当我们思考时,它有大量的组成部分,有许多不同的部分。所以我们正在考虑所有这些。但我们确实相信,如果我们再次考虑成本改进周期时间和组合,我们将努力在七天中期保持毛利率。这就是我们对毛利率的总体计划。您的第二个问题是关于运营支出的。目前,我们在运营支出方面的目标是真正确保我们与我们的工程团队、所有业务团队一起创新,为这个市场创建越来越多的系统。如您所知,现在我们推出了一个新的架构,这意味着他们为了实现这一目标非常忙碌。因此,我们将继续看到我们在创新方面的投资越来越多,无论是我们的软件、我们的系统还是我们的辛勤工作。因此,如果詹森想添加更多评论,我会把它留给他。

黄仁森首席执行官

是的,我认为这是正确的。我认为唯一需要补充的是记住,我们计划、预测、计划并提前与我们的供应链进行谈判。我们的供应链很长一段时间以来就知道我们的需求,他们也很长一段时间以来就知道我们的需求。我们已经与他们合作并谈判了相当长的时间。所以,所以我认为,最近的激增显然相当显着。但请记住,我们的供应链已经与我们合作了很长时间。因此,在许多情况下,我们为自己确保了大量的供应,因为,你知道,显然他们正在与世界上最大的公司合作这样做。我们还一直在IT的财务方面以及确保预测和计划等方面与他们密切合作。所以我认为所有这些对我们来说都进展顺利。

操作者

您的最后一个问题来自富国银行的亚伦·莱克斯(Aaron Rakers)。您的线路已开通。

富国银行分析师

是的,谢谢你回答这个问题。Jensen,你知道,当你想到宣布的人类交易以及你客户的整体广度时,我很好奇你对AI ASIC或专用XPU在这些架构构建中所扮演角色的想法是否发生了变化。你是否看到,你知道,我认为你过去一直相当坚定地认为,其中一些程序从未真正看到部署。但我很好奇,如果我们正处于这样一个阶段,也许甚至可能会发生更多变化,转而支持只支持图形处理器架构。谢谢

黄仁森首席执行官

是的,非常感谢。我真的很感激这个问题。所以首先,你不是在与团队竞争,对不起,是在与公司竞争。你正在与团队竞争。世界上并没有那么多的团队,他们在建造这些令人难以置信的复杂事物方面非常出色。你知道,在漏斗时代和安培时代,我们会建造一个GPU。这就是加速AI系统的定义。但今天我们必须构建整个机架,整个,你知道,三种不同类型的交换机,向上扩展,向外扩展和跨交换机扩展。构建计算节点需要的不仅仅是一个芯片。有关该计算系统的一切,因为人工智能需要有内存。人工智能过去根本没有记忆力。现在它必须记住事情。它所拥有的内存和上下文量是巨大的。内存架构的影响,令人难以置信。模型的多样性,从专家混合到密集模型到扩散模型,再到自回归模型,更不用说遵守物理定律的生物模型了。在过去的几年里,不同类型的车型数量呈爆炸式增长。因此,挑战在于问题的复杂性要高得多。人工智能模型的多样性非常大。

所以,如果我想说让我们与众不同的五件事,如果你愿意的话,这就是地方。我想说的第一件事是,我们加速了转型的每个阶段。这是CUDA允许我们拥有的第一阶段,即CUDA X,用于从通用加速计算过渡。我们非常擅长生成人工智能,我们非常擅长代理人工智能。因此,我们擅长其中的每一个阶段、过渡的每一个层面。您可以投资一种架构,全面使用它,您可以使用一种架构,而不必担心这三个阶段的工作负载变化。这是第一。第二,我们在人工智能的每个阶段都表现出色。每个人都知道这一点。我们非常擅长训练前,我们显然非常擅长训练后,事实证明,我们在推理方面也非常擅长,因为推理真的非常困难。思考怎么可能容易呢?你知道,人们认为推论是一次即可完成的,因此很容易。任何人都可以以这种方式进入市场。但事实证明,这是最困难的,因为事实证明,思考是相当困难的。我们擅长人工智能的每个阶段。第二件事,第三件事是我们现在是世界上唯一一个运行每个人工智能模型、每个前沿人工智能模型的架构。我们非常好地运行开源人工智能模型。我们运行科学模型、生物模型、机器人模型,我们运行每一个模型。我们是世界上唯一一个可以声称无论你是自回归还是扩散并不重要的建筑。正如我刚才提到的那样,我们运行一切,并且为每个主要平台运行。所以我们运行每个模型。

第四点,我想说的是,我们在每一片云里。开发人员喜欢我们的原因是因为我们几乎无处不在。我们在每一个云,我们在每一个,你知道,我们甚至可以为你做一个小的云叫DGX火花。所以我们在每一台电脑里。我们无处不在,从云到本地,再到机器人系统、边缘设备、PC,你能想到的。一种架构,一切都可以工作。太不可思议了最后一件事,这可能是最重要的事情,第五件事是,如果您是云服务提供商,如果您是Humane这样的新公司,如果您是coreiver、N Scale、nvs或OCI这样的新公司,Nvidia之所以是您最好的平台,是因为我们的产品如此多样化。我们可以帮助您进行分付。这不仅仅是将随机的ASIC放入数据中心。承付款从何而来?多样性从何而来?韧性从何而来?架构的通用性来自哪里,能力的多样性来自哪里?英伟达拥有如此好的销售机会,因为我们的生态系统如此之大。所以这五件事,加速和过渡的每个阶段、人工智能的每个阶段、每个模型、每个云,当然,最后这一切都会导致接管。

操作者

谢谢我现在请Hari发表闭幕词。

Toshiya Hari投资者关系和战略财务副总裁

最后,请注意,我们将于12月2日出席瑞银全球技术和人工智能大会。我们定于2月25日举行财报电话会议,讨论2026财年第四季度业绩。感谢您今天加入我们。接线员,请继续关闭通话。谢谢今天的电话会议到此结束。您现在可以断开连接。

此成绩单仅供参考。虽然Benzinga认为内容实质上和方向上是正确的,但Benzinga不能也不保证本文内容的100%准确性。音频质量,口音和技术问题可能会影响准确性,我们建议您在根据上述内容做出任何决定之前参考源音频文件。

阅读下一步:· Nvidia Q3:布莱克威尔需求激增,收入创纪录-黄称“人工智能正在无处不在”

照片:Shutterstock

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。