热门资讯> 正文
2025-11-19 22:25
(来源:君实财经)
【英伟达业绩前瞻:市场在期待什么~?】
我们对比了过去三年每个季度的情况,即市场在业绩前的预期和当期的实际业绩。发现一个比较有意思的现象:在23年的时候,英伟达还是能够比较夸张地超越当时市场预期的,而且有的季度可以超预期50%以上。但是从日历年的24年二季度之后,市场的一致预期和最终的业绩结果就已经非常接近了,每个季度大概只有1到2个点的差异。一方面说明资本市场在链接起上下游之后,能够摸清楚短期的数字了;另一方面也说明大概率上当期业绩的披露时间点本身已经比较难对市场造成那么大的冲击了。因此,大家更加关心的是公司对于未来的判断以及未来的战略方向。
我们先看一下当前市场预期的位置,整体来说还是非常积极看好的。对于这个季度,也就是26财年Q3(截至10月底的三个月),市场的判断收入预期大致在570亿美金左右,同比增长62%。这个数字高出公司指引的540亿美金,其中数据中心的收入是510亿美金,毛利率大概在73%到74%的中上区间,比上个季度继续改善,且比官方指引中值73.5%可能略高一点。
再看下一个季度Q4,市场价的预期大概是640到650亿美金左右,同比增长63%到65%,高于公司给到的620到630亿美金的指引。同比增速和Q3的同比增速差不多,略有提速。毛利率方面会继续有修复上升的趋势,实现公司之前的目标,即达到70%中段接近75%的水平。这个修复的背后主要来自于Blackwell的规模化出货和量产爬坡过程。基于以上,今年整个的EPS大概可以看到4.5到4.8美金左右,同比增长不到60%。明年的EPS中枢大概有8美金左右,同比增长72%。背后的核心动能主要是主力芯片Blackwell和Rubin的量产提速。
明年可能还有两个弹性点:一个是台积电这边先进芯片和CoWoS的扩展计划,即能否给到英伟达足够多的产能,以及这个产能是否还有机会再上修;另一个是对华芯片出口,现在都是按照归零来估算的,如果这块有变化,也会有一个向上的动能,单季度收入增量在几十亿美金。
再看长线一点,假如根据稍早提到的到2030年整个能有3到4万亿的新增基建规模来粗略框算,2030年市场判断的一个比较乐观的EPS是可以到50美金左右,跟现在比,期间的复合年均增速接近60%。
所以总体上看,中短期今年到明年的增长动能还是比较清晰的,核心驱动力就是数据中心,一个是今年Blackwell的大量出货,再一个是明年Rubin的量产爬坡,背后需求端和供给端都要同步发力。
需求端来看,我们跟踪传统大厂谷歌、微软、Meta、亚马逊这四家今年的资本开支增速,Q3实现了趋势逆转,同比增长73%,相比前一个季度Q2提速十个百分点左右。全年资本开支今年能看到63%的增长,比年初预期好非常多,是在去年高基数上今年增长百分比没有降速。明年按照目前的指引口径,能看到50%左右。
再看新兴的几个原厂,像CoreWeave和Nibiru这样的公司,他们现在有极强甚至更强的动力去部署算力产能,因为一个是现有容量全部售罄,再一个是剩余履约合同的规模还在非常高、接近环比百分之百的速度增长。
像CoreWeave预计明年26年的资本开支超过今年的两倍以上,今年资本开支指引的终值大概是130亿美金左右,但因为第三方交付数据中心的问题有一定延迟,所以明年会再大幅提速。
看到Nibiru这边,它指引到今年全年的KTX到50亿美金。值得一提的是这家公司的KX规划今年以来以每个季度非常颠覆性的速度增长,Q1时规划还是今年一个亿美金左右,Q2就到了20个亿,Q3到了50个亿。背后决策的驱动力是他不断接到新的大的算力租赁订单,最著名的一个是微软刚刚定下的订单。类似于这样的大订单在这一类的新兴云厂上面的积压现在到了一个非常夸张的规模,尤其是对比他们目前的收入规模来看,像CoreWeave披露出来的积压订单规模到了550多亿美金,对比它25年末的预计年化收入大概是六倍多;Nibiru这边披露的积压订单规模是两百多亿美金,对比它25年末的预计年化收入是20倍左右。
所以我们可以看到,无论传统云还是新兴云,AI基建投资的增长至少在今年到明年的可见度还是非常清晰的。
再看供给端,改善也很明确,虽然产能仍然是瓶颈,但产业跟踪下来提示我们,CoWoS产能的预期在不断明确上升,明年上修幅度应该也比较显著。
从今年下半年开始,机柜的组装效率也在明确提速。现在市场看下来,可能Q3会有1万个左右的出货,同比增长50%左右,Q4估计保持差不多的斜率继续增长。其实在十月底英伟达的GTC大会上,它已经释放了一个信号,即Blackwell和Rubin今年和明年一共的出货大概是2000万颗,对应5000亿美金左右。
所以整体市场在这个框架性上的预期差值没有那么大。但这个阶段市场对于AI多多少少有一些风声鹤唳,从最近几次英伟达面对投资者交流体现出来的趋势看,英伟达自己也更愿意给到逐步清晰的指引。
这次可以期待公司进一步展开叙述的几个点:
第一个是在前面提到的5000亿美金出货基础上,对明年的具体指引有没有细化,包括毛利率能不能稳住甚至75%有没有继续往上的空间,特别是像零部件价格最近这种上涨会不会对他有所影响。
第二个是对于最近争议度大的像与OpenAI的合作,后面的实际落地情况,以及会不会有新的类似偏中远期的大规模客户在洽谈中。
第三个是对于GTC上提过的AI工厂问题,后续有没有新规划?现在看起来英伟达一边与传统云厂合作构建AI平台,一边也没有放弃自己搭AI平台的能力,后续战略上会不会有侧重,因为这两种路线有区别。第四个是再回到供应端,对应到不久前从台积电传出来的新闻,即英伟达要求增加3纳米供应50%以上,这次法说会上会不会有所回应,以及后续到底能拿到多少产能,因为这也是英伟达收入的一个较大制约。
主要是这么几个点值得我们在周四早上特别关注。这是针对英伟达本身的讨论。
最近几周以来,无论英伟达自己还是整个美股AI链的波动都比较大,其中有宏观因素,比如更早之前美国政府停摆,再到最近短期降息预期的回落,以及VIX恐慌指数的走高,还包括一部分对冲基金有换仓的需求。
除去这些之外,最本质的原因还是市场关于所谓AI泡沫论的担心又卷土重来。它和年初那一波波动相似的一点是,大家都在讨论投入和回报是否错位的问题;但不同在于,年初对于算力需求的担心主要来自训练成本的下降,经过大半年时间,随着推理需求爆发,推理算力用量占比大幅提升,现在市场认可了这部分算力需求的存在,但开始质疑回报率的问题,包括从类似OpenAI这样的公司不赚钱以及现金流紧张,空头可能认为这会向上游传导,导致数据中心订单被毁约,联动到AI硬件公司订单的确定性。
但其实这些在我们看来不是新问题,它是和AI一直以来的热度共生的,我们的总体判断不变:现在AI还是在一个重大技术革命周期的早期形态上,大规模投入暂时只能看到小范围内的闭环,但这些地点状的闭环已经吸引了新投入。对于AI大企业可能是偏前瞻的,对于传统行业或中小企业可能是跟随的,但这些趋势同时在发生,我们可以从包括云增速、推理用量增速等相对高频数据中看到。最终通过迭代,系统会逐渐趋于相对合理的运行方式。
这次AI泡沫论中被讨论最多的两个问题:
第一个问题是新兴云像CoreWeave和Nibiru这样的公司财报后大跌并波及AI链,他们到底有什么问题?其实就两个问题:第一个是这两家公司产能上线的延迟影响了单季度和短期收入确认;第二个是CoreWeave有利润率低预期的问题,引发市场担心云服务商因竞争加剧盈利能力有问题。
但我们的判断是这至多是短期调整,不应该是长期问题,从三个维度解释:需求端、供给端和运营利润率上。需求端上,前面列举了从新兴云到传统云都是严重产能不足的状态,比如CoreWeave的剩余合同金额有五百多亿美金,环比85%增长,签约订单容量这个季度提到2.9GW,上个季度2.2GW; Nibiru目前所有容量售罄,并调高26年算力签约容量指引到2.5GW,上个季度指引是1GW。
再看传统云大厂,这也是我们上次电话会详细拆解的问题,即云业务到26年底还是严重短缺的,看到AWS、谷歌、Azure这边的积压订单对比收入量级需要至少6到10个季度消化,这是需求端紧张状态。再到供给端,芯片出货预期一再调高,仅讲最近一个月变化,除了英伟达外,TPU、台积电都对明年出货量和产能预期有明确上调,AMD也在上周投资者日上判断3到5年AI数据中心收入年均复合增速超过80%。
再到利润率上,虽然CoreWeave确实可能有自身问题,比如快速投入初期阶段折旧成本增加给利润端压力,以及确有竞争原因要控价的问题,但云业务并不是不赚钱的,因为我们可以看到传统CSP厂的云业务利润率是上行的。以谷歌云为例,其云业务运营利润率从二三年三季度大概3%一路攀升到今年三季度的24%,背后原因是云平台、AI基础设施以及生成式AI解决方案的增长。所以从这三个点各个击破,我们认为从新兴云财报问题衍生出的对整个AI链的担忧,放长远看没有太大必要。
第二个AI泡沫论中讨论多的问题是Michael Burry在做空英伟达和Plantier时做的底层假设,他的做空论调很大程度上基于这个假设,即他认为下游AI公司的产品折旧周期有问题,可能一部分下游AI公司利润率因拉长芯片卡折旧年限而虚高,这个问题一旦暴露会影响后续投入。
我们的判断是当前5到6年的折旧周期完全合理,并且随着推理占比提升还有进一步拉长的可能性。原因是我们先回顾2020年,当时云厂普遍将硬件折旧年限从三年拉长到四年,再看到五年后现在硬件折旧周期多数集中在5到6年,背后原因主要是两点:一个是随着GPT和AM大模型推出,云端工作负载内容大幅改变,延长芯片使用周期变得可能,且明显对高资本开支的云大厂有利;第二点是同时期硬件不断迭代,可靠性逐步提升。
现在像云厂商包括一些模型厂商拆除的比如V100、A100乃至H100这些卡,空头认为这是芯片卡折旧快的论据,但其实背后原因是电力和机房空间限制,所以手上卡充足的公司会置换更高效算力卡。并且拆除H100这样的卡只出现在非常少量的极端数据中心机房中,实际上更大盘的现象是旧商用卡仍在服役,哪怕在美国。举几个例子:第一是亚马逊AWS部分对外出租算力的产品仍用V100卡;第二是现在很多大模型推理还会在A100上运行。第三点是不久前CoreWeave法说会上提了一个案例,说他们公司H100的多年期合同结束后,客户会主动提前以大概95%的价格续约,折扣非常小。除了这个,整个大盘上对于H卡的使用率大概还在九成以上。所以我们判断当前云厂商的专利卡折旧周期并没有人为拉长,以当前会计假设推演他们和后续AI回报率没有问题,大致来说谷歌能在26到27年、Meta在28年整体AI回报回正