热门资讯> 正文
2025-09-05 12:15
(来源:invest wallstreet)
经营情况:
在 2025 财年第三季度(Q3),我们的总营收达到创纪录的 160 亿美元,同比增长 22%。此次营收增长的主要驱动力来自两方面:一是人工智能(AI)半导体业务的表现超出预期,二是 VMware 业务的持续增长。第三季度合并经调整息税折旧摊销前利润(Adjusted EBITDA)同样创下纪录,达 107 亿美元,同比增长 30%。除本季度已公布的数据外,受 AI 领域强劲需求推动,我们的订单量表现极为亮眼,目前公司合并未交付订单总额已突破纪录,达 1100 亿美元。
半导体业务:营收为 92 亿美元,同比增速加快至 26%。这一加速增长主要由 AI 半导体业务带动。
1)AI半导体业务:
该业务营收达 52 亿美元,同比增长 63%,且强劲增长态势已连续 10 个季度延续。
定制 AI 加速器(XPU):
本季度,XPU 业务在 AI 营收中的占比提升至 65%,占比进一步扩大。我们的 3 家核心客户对定制化 AI 加速器的需求持续增长,尽管各家客户在实现计算自主化的进程中节奏不同,但我们在这些客户的供应链中所占份额正逐步提升。
此外,正如我们此前所提及,除这 3 家核心客户外,我们还在与其他潜在客户合作开发其专属 AI 加速器。上一季度,其中一家潜在客户已向博通(Broadcom)下达量产订单,因此我们已将其认定为 XPU 业务的合格客户。事实上,基于我们的 XPU 产品,该客户已向我们下达了价值超 100 亿美元的 AI 机柜订单。受此影响,我们目前预计 2026 财年 AI 业务营收前景将较上一季度公布的预期大幅改善。
AI 网络:
随着大型语言模型(LLM)智能水平的不断演进,计算集群规模需持续扩大,网络的重要性日益凸显,因此该业务需求依然强劲。“网络即计算机”,当客户试图将计算集群规模扩展至 10 万个计算节点以上时,正面临诸多挑战。例如,“纵向扩展”(scale up)便是一大难题 —— 若要在一个机柜内实现多块 GPU(图形处理器)或 XPU 之间的内存共享,就需要充足的带宽支持。目前,采用专有 NVLink 技术的 AI 机柜,纵向扩展能力仅为 72 块 GPU,带宽为 28.8 太比特 / 秒;而今年早些时候,我们推出的 “战斧 5”(Tomahawk 5)交换机采用开放以太网(Ethernet)技术,可为使用 XPU 的客户提供 512 个计算节点的纵向扩展能力。
再谈谈跨机柜的 “横向扩展”(scale out)。目前,采用 51.2 太比特 / 秒带宽的架构需要 3 层网络交换机支持;而今年 6 月,我们推出了 “战斧 6”(Tomahawk 6)交换机及基于以太网的 102 太比特 / 秒交换机,将网络架构简化为 2 层。这一优化不仅降低了延迟,还大幅减少了能耗。当计算集群规模超出单个数据中心的承载范围时,就需要实现跨数据中心的计算扩展。在过去 2 年中,我们已向超大规模客户部署了 “杰里科 3”(Jericho3)以太网路由器,以满足这一需求。如今,我们又推出了下一代 “杰里科 4”(Jericho4)以太网架构路由器 —— 该产品具备 51.2 太比特 / 秒的深度缓冲智能拥塞控制能力,可支持跨多个数据中心、规模超 20 万个计算节点的集群运行。
我们深知,部署更大规模的生成式 AI 计算集群,最大的挑战在于网络。而在过去 20 年中,博通在以太网领域积累的技术,完全能够应对生成式 AI 在纵向扩展、横向扩展及跨域扩展(scale across)方面的各类挑战。
关于业绩预测,正如我此前所言,我们在 AI 营收增长方面持续稳步推进。对于 2025 财年第四季度(Q4),我们预计 AI 半导体业务营收约为 62 亿美元,同比增长 66%。
2)非AI半导体业务:
该业务需求复苏进程缓慢,第三季度营收为 40 亿美元,环比持平。
其中,宽带业务环比增长强劲,企业网络及服务器存储业务环比下滑,无线通信与工业业务则如预期般环比持平。与之不同的是,受季节性因素推动,我们预计第四季度非 AI 半导体业务营收将环比实现低双位数增长,达到约 46 亿美元。具体来看,宽带、服务器存储及无线通信业务预计将有所改善,而企业网络业务仍将环比下滑。
基础设施软件业务:
第三季度,该板块营收为 68 亿美元,同比增长 17%,高于我们此前预期的 67 亿美元,这主要得益于本季度强劲的订单表现 —— 事实上,第三季度我们的总合同价值(Total Contract Value)已超 84 亿美元。不过,最令我振奋的是另一项成果:在收购 VMware 后,经过 5000 多名研发人员历时 2 年的技术开发,我们兑现了承诺 —— 推出了 VMware 云基础架构(VMware Cloud Foundation)9.0 版本。这是一个完全集成的云平台,企业客户既可在本地部署,也可迁移至云端;它支持企业在虚拟机及现代容器上运行各类应用负载,包括 AI 负载,为企业提供了可替代公有云的切实选择。对于第四季度,我们预计基础设施软件业务营收约为 67 亿美元,同比增长 15%。
综上,AI 与 VMware 业务的持续强劲表现,将推动我们第四季度合并营收达到约 174 亿美元,同比增长 24%;同时,我们预计第四季度经调整息税折旧摊销前利润(Adjusted EBITDA)将占营收的 67%。
董事会与我(Hock Tan)已达成共识,我将至少在 2030 年之前继续担任博通的首席执行官(CEO)。当前正是博通发展的关键机遇期,我非常有热情继续为股东创造价值。
财务情况:
本季度合并营收达 160 亿美元,创下纪录,同比增长 22%。本季度毛利率为 78.4%,高于我们最初的预期,主要原因在于软件营收占比提升及半导体产品结构优化。合并运营支出为 20 亿美元,其中研发(R&D)支出为 15 亿美元。第三季度运营利润达 105 亿美元,同样创下纪录,同比增长 32%。环比来看,尽管受产品结构影响,毛利率下降了 100 个基点,但得益于运营杠杆效应,运营利润率环比提升 20 个基点,至 65.5%。经调整息税折旧摊销前利润为 107 亿美元,占营收的 67%,高于我们此前预期的 66%(该数据已剔除 1.42 亿美元的折旧费用)。
下面,我们将按两大业务板块分别回顾利润表(P&L)情况,首先是半导体业务。半导体解决方案板块营收为 92 亿美元,受 AI 业务推动,同比增速加快至 26%,该板块营收占本季度总营收的 57%。半导体解决方案板块的毛利率约为 67%,受产品结构影响,同比下降 30 个基点。运营支出同比增长 9%,至 9.51 亿美元,增长原因是我们加大了对前沿 AI 半导体技术的研发投入。半导体业务的运营利润率为 57%,同比提升 130 个基点,环比持平。
接下来是基础设施软件业务。该板块营收为 68 亿美元,同比增长 17%,占总营收的 43%。本季度基础设施软件业务的毛利率为 93%,而去年同期为 90%。该板块本季度运营支出为 11 亿美元,运营利润率约为 77%,较去年同期的 67% 显著提升,这一改善反映出 VMware 整合已顺利完成。
再来看现金流情况。本季度自由现金流为 70 亿美元,占营收的 44%。资本支出(Capex)为 1.42 亿美元。第三季度应收账款周转天数(Days Sales Outstanding)为 37 天,而去年同期为 32 天。截至第三季度末,库存总额为 22 亿美元,环比增长 8%,这是为满足下一季度的营收增长预期而做的准备。本季度库存周转天数(Days of Inventory on Hand)为 66 天,低于第二季度的 69 天,这表明我们在整个生态系统的库存管理方面仍保持着严格的纪律性。
截至第三季度末,我们的现金及现金等价物为 107 亿美元,债务本金总额为 663 亿美元。其中,658 亿美元固定利率债务的加权平均票面利率为 3.9%,加权平均剩余期限为 6.9 年;5 亿美元浮动利率债务的加权平均利率为 4.7%,加权平均剩余期限为 0.2 年。
关于资本配置:第三季度,我们向股东支付了 28 亿美元现金股息,每股普通股季度现金股息为 0.59 美元。对于第四季度,我们预计非公认会计原则(non-GAAP)稀释后股数约为 49.7 亿股,该数据未计入任何股票回购可能带来的影响。
接下来是业绩指引。我们预计第四季度合并营收为 174 亿美元,同比增长 24%;半导体业务营收预计约为 107 亿美元,同比增长 30%,其中 AI 半导体业务营收预计为 62 亿美元,同比增长 66%;基础设施软件业务营收预计约为 67 亿美元,同比增长 15%。
供大家建模参考:我们预计第四季度合并毛利率将环比下降约 70 个基点,主要原因是 XPU 产品占比提升及无线通信业务营收变化。需提醒的是,全年合并毛利率将受两大因素影响:一是基础设施软件与半导体业务的营收结构,二是半导体业务内部的产品结构。我们预计第四季度经调整息税折旧摊销前利润(Adjusted EBITDA)占比将维持 67%;第四季度及 2025 财年的非公认会计原则(non-GAAP)税率将保持 14%。
Q&A:
Q:我的问题聚焦 AI 业务,尤其是 XPU 业务。你提到 2026 财年 AI 业务增速将远高于上一季度的预期,背后原因是什么?仅仅是因为那家优质潜在客户升级为正式客户(即你提到的 100 亿美元订单),还是现有 3 家核心客户的需求也出现了增长?如果能提供相关细节,将非常有帮助。
A:我认为两方面因素都有,但更大程度上是因为我们的客户名单中新增了第四家客户 —— 我们将从 2026 年初开始向该客户大规模发货。具体来说,一方面,现有 3 家核心客户的订单量正逐步、稳步增长;另一方面,新增的第四家客户需求即时且规模可观,这两大因素共同改变了我们对 2026 财年 AI 业务前景的判断。
Q:恭喜贵公司实现出色的季度业绩及强劲的自由现金流。霍克,我知道大家都会围绕 AI 业务提问,但我想聚焦非 AI 半导体业务。根据你们的第四季度指引,若能达成指引中点,2025 财年非 AI 半导体业务营收同比可能下降 7%-8%。不过好消息是,同比下滑趋势已在全年逐步改善,事实上,第四季度该业务有望实现同比正增长。你们此前将其描述为 “接近周期底部,复苏进程缓慢”。
但目前我们已看到一些积极信号,比如宽带、服务器存储、企业网络业务均出现回暖迹象:宽带领域,你们仍在推动 DOCSIS 4.0 升级;中美市场也即将启动下一代无源光网络(PON)升级;企业网络升级支出也在加速增长。那么,从周期底部来看,我们应如何看待这一轮周期性复苏的幅度?此外,考虑到你们的交货周期为 30-40 周,非 AI 板块的订单是否持续改善?这能否预示 2026 财年该业务将继续周期性复苏?
A:哈兰,你对非 AI 板块的判断是正确的 —— 根据第四季度指引,该业务同比确实会略有增长,大概 1%-2%,目前来看这个增幅还不足以特别强调。但关键问题在于,各细分领域的表现有升有降,综合来看,除了我们预期的季节性因素外,若不看同比、仅看环比,无线通信业务甚至服务器存储业务都呈现出一定的季节性特征,但整体表现相互抵消,暂无明显趋势。
过去 3 个季度中,唯一持续强劲增长的细分领域是宽带业务;从周期角度看,其他领域尚未展现出能持续向上的趋势。正如你所指出的,这些业务虽未进一步恶化,但也未出现半导体周期中常见的 “V 型复苏”。
目前唯一能给我们带来一些信心的是宽带业务,其复苏势头非常强劲 —— 但需注意的是,宽带业务也是 2024 年至 2025 年初下滑最严重的业务,因此这一复苏也需客观看待。综上,正如我此前所说,非 AI 半导体业务复苏进程缓慢,第四季度同比增幅预计为低个位数。我们预计非 AI 业务将呈现 “U 型复苏”,可能要到 2026 年中后期才会出现有意义的复苏,但目前这一判断仍存在不确定性。
Q:考虑到你们 40 周左右的交货周期,目前是否已看到订单趋势的改善?
A:是的,我们确实看到了订单改善,但过去也曾出现过误判的情况。目前非 AI 板块的订单同比增长超 20%—— 虽然远不及 AI 订单的增幅,但 23% 左右的同比增长仍算不错。
Q:我的问题是,能否量化 2026 财年 AI 业务的最新指引?上一季度你提到 2026 财年 AI 业务增速可能达到 60%,那么最新增速是多少?是否在 60% 的基础上加上你提到的 100 亿美元订单对应的增量?此外,相关的是,定制化 AI 产品与 AI 网络产品的营收占比,是否会维持过去一年的水平,还是会更多向定制化产品倾斜?若能提供 2026 财年的量化数据及两者占比情况,将非常有帮助。
A:好的,我们先回答第一个问题。上一季度我提到 “2026 财年 AI 业务增速将与 2025 财年持平(即 50%-60%)”,但当时并未给出具体数值 —— 之所以提到 50%-60%,是因为 2025 财年的增速处于这一区间。更准确地说,目前我们看到的趋势是 “增速加速”,而非维持在 50%-60% 的稳定区间,2026 财年 AI 业务增速将高于 2025 财年。我知道你希望我给出具体数字,但根据规则,我们不应披露 2026 财年的具体预测,只能说增速将出现 “相当显著的提升”。
Q:那定制化产品与网络产品的占比情况呢?
A:正如我在发言中提到的,XPU 业务是 2026 财年 AI 增长的核心驱动力,具体原因有两点:一是我们在原有 3 家核心客户中的份额持续提升 —— 这些客户正逐步推进计算自主化,每一代产品对 XPU 的依赖度都在增加,因此我们的份额也随之扩大;二是新增了第四家重要客户(非常关键的客户)。这两大因素将推动 XPU 业务营收增长,而随着 4 家客户对 XPU 的需求增加,我们虽仍会从这些客户处获得网络产品订单,但来自这 4 家客户之外的网络产品订单占比将被稀释,因此预计 2026 财年网络产品在 AI 总营收中的占比将呈下降趋势。
Q:1100 亿美元的未交付订单这个数字是否准确?能否介绍一下该订单的构成 —— 比如覆盖周期有多长,以及 1100 亿美元中 AI、非 AI 及软件业务分别占比多少?
A:通常我们不会披露未交付订单的细分构成,此次公布总额是为了让大家直观了解公司整体业务的强劲程度。从增长驱动因素来看,该订单主要由 AI 业务推动,软件业务则持续稳步贡献增量,非 AI 业务如我此前所说也实现了双位数增长(但远不及 AI 业务的增幅)。大致来看,至少 50% 的未交付订单来自半导体业务。
Q:半导体业务对应的未交付订单中,AI 业务占比是否远高于非 AI 业务?
A:是的,没错。
Q:恭喜你们将 2026 财年 AI 营收增速指引上调至 60% 以上。我想进一步追问 2027 财年及其他潜在客户的情况:除了这 4 家客户,与其他潜在客户的沟通进展如何?过去你曾提到有 7 家潜在客户,目前已新增 1 家(即第四家客户)进入量产阶段,此前还有 3 家。现在是否收到其他潜在客户的反馈?2026 财年之后(即 2027 财年及更长期),这一趋势将如何发展?
A:本,你确实有点 “贪心”,而且对我来说,这个问题想得太长远了,谢谢你的提问。但这类问题涉及主观判断,我不太愿意给出具体结论 —— 因为有时客户进入量产的时间会超出预期,有时则会延迟,存在不确定性。因此,关于潜在客户,我只能说 “这些都是真实的潜在客户,我们仍在与他们紧密合作,协助开发各自的 XPU 产品,且他们均有明确意愿实现大规模量产(就像目前这 4 家定制化客户一样)”,除此之外,不便提供更多细节。
Q:那之前提到的 “100 万个 XPU 单元” 的目标(针对这 7 家客户)是否仍保持不变?
A:这个目标仅针对原有 3 家客户,现在客户数量已增至 4 家,该目标对这 4 家客户依然有效。至于潜在客户,我无法对此做出判断,因此不发表评论。
Q:霍克,我不想追问你提到的潜在客户进展,而是想了解:除了已确定的 7 家客户 / 潜在客户,你如何看待其他潜在客户的市场空间?是否仍有其他客户值得我们为其开发定制化芯片?我知道你此前对客户数量及订单规模的表述较为谨慎,也对合作机会有严格筛选标准,能否介绍一下这 7 家之外的潜在客户情况?
A:这是个很好的问题,我将从更宏观的角度回答。正如我此前所说,我们将 AI 市场分为两大板块:第一板块是 “自主开发 LLM 的客户”,第二板块是 “企业级市场”(即需要在本地或通过 GPU/XPU 等服务运行 AI 负载的企业客户)。坦白说,我们暂不涉足企业级市场 —— 因为该市场对我们而言操作难度较大,且我们的业务架构也不适合服务这一市场。
我们专注的是 LLM 市场。正如我多次提到的,这是一个非常细分的市场:只有少数几家企业在持续推动前沿模型的发展,且正加速向 “超级智能”(此处借用他人术语,你应该能理解其含义)迈进。这些企业一方面需要在训练环节投入大量资源(训练集群规模不断扩大,加速器性能持续提升),另一方面,由于需对股东负责或需创造现金流以支撑长期发展,他们也在大规模投资推理环节,以实现模型的商业化变现。
这些企业正是我们的合作对象 —— 他们在计算能力上投入巨大,但这类企业的数量非常有限。正如我此前所说,我们已确定 7 家此类企业:其中 4 家已成为客户,3 家仍为潜在客户(我们正与他们合作)。我们在客户筛选上非常谨慎(不应使用 “挑剔” 这个词,更准确的是 “谨慎”),筛选标准是 “企业拥有或正在构建平台,且在前沿 LLM 模型上有大量投资”。目前我们确定的这类企业共 7 家,未来可能还会新增 1 家潜在客户,但即便如此,我们仍会进行审慎评估。目前来看,核心合作对象就是这 7 家。
Q:我的问题关于 “杰里科 4”(Jericho4)路由器:英伟达(NVIDIA)此前提到 XGS 交换机,现在又提及 “跨域扩展”(scale across),而你们也在推广 “杰里科 4”,这似乎表明该市场正逐步发展。能否介绍一下,你们预计该业务何时能实现营收的显著增长?此外,随着推理业务的推进,为何这类交换机的重要性会日益凸显?
A:是的,“跨域扩展” 现在成了一个热门术语 ——“纵向扩展” 是指机柜内的计算扩展,“横向扩展” 是指数据中心内的跨机柜扩展,而 “跨域扩展” 则是指超出单个数据中心的扩展。当计算集群规模达到(具体阈值尚不明确,但大致为)10 万块 GPU 或 XPU 以上时,由于单个数据中心的电力供应有限,通常不会将 10 万块以上的 XPU 集中部署在一个数据中心 —— 电力供应难度大,场地也受限。因此,我们看到大多数客户会在近距离范围内(通常在 100 公里以内)建立多个数据中心。
而要实现 “在多个数据中心(如 3-4 个)部署同质 XPU/GPU,并通过网络连接使其具备单一集群的运行能力”,这正是该技术的核心价值。由于涉及远距离传输,该技术需要深度缓冲和高度智能的拥塞控制能力 —— 这类技术在电信行业(如 AT&T、Verizon 的网络路由)已应用多年,尽管 AI 工作负载更复杂,但技术原理相通。过去 2 年,我们已向部分超大规模客户部署了 “杰里科 3”(Jericho3)路由器,以支持这一需求。
随着 AI 训练对集群规模和带宽的需求不断提升,我们推出了 “杰里科 4” 路由器 —— 其带宽达 51 太比特 / 秒,可支持更高带宽需求,但技术原理与 “杰里科 3” 一致,均基于我们过去 10-20 年验证过的成熟技术,无需开发新技术。该产品基于以太网技术,稳定性和可靠性已得到充分验证。正如我所说,过去 2 年,我们已向部分超大规模客户销售 “杰里科 3” 路由器(支持 256 个连接,无计算节点)。
Q:贵公司前 10,000 家大客户是否已完全从 vSphere 虚拟化平台迁移至完整的 vSphere 云基础架构(vSphere Cloud Foundation)堆栈?我记得上一季度你们提到 87% 的客户已完成迁移,这一比例较收购 VMware 前(不足 10% 的客户购买完整套件)有显著提升。此外,除了前 10,000 家大客户,其他中小型企业客户对 vSphere 云基础架构(VCF)的接受度如何?随着客户采用 VMware 产品,你们的商用半导体存储及网络业务是否实现了交叉销售的实际收益?
A:先回答第一个问题:是的,前 10,000 家大客户中,几乎 90% 以上已购买 VCF。但我需要谨慎措辞 ——“购买” 不代表 “完全部署”。接下来我们的核心工作是:协助这些已购买 VCF 的客户(或其中大部分)在其本地基础设施上成功部署并运营这一私有云平台,这是未来 2 年我们需要重点推进的工作。随着部署的推进,我们预计 VCF 在客户 IT 架构中的覆盖范围将逐步扩大,客户将在其数据中心内更多地运行私有云 —— 这是 VMware 业务第二阶段的核心内容。
VMware 业务的第一阶段是 “说服客户从永久许可模式转向订阅模式,并购买 VCF”;第二阶段则是 “帮助客户通过 VCF 实现私有云的价值,在其本地 IT 数据中心创造实际效益”。这一过程将持续较长时间,且在此基础上,我们还将推出高级服务(如安全、灾难恢复,甚至 AI 负载运行服务),前景非常可观。
关于第二个问题 ——“是否能推动硬件销售”:答案是否定的,两者是相互独立的。事实上,随着客户实现数据中心虚拟化,我们明确意识到这会推动数据中心底层硬件的商品化 —— 包括服务器、存储甚至网络设备的商品化。但我们认为这是合理的,因为硬件商品化能降低企业在数据中心硬件上的投资成本。
至于前 10,000 家大客户之外的客户:我们确实看到了一些积极信号,但有两个因素可能限制其采用 VCF 的速度。一是投资回报率(TCO)较低 —— 中小型企业从 VCF 中获得的价值远低于大型企业;二是运营能力不足 —— 尽管他们可通过服务或我们的支持完成部署,但长期运营所需的技术能力可能超出其承受范围。目前我们仍在观察这一领域的进展 ——VMware 共有 300,000 家客户,我们认为前 10,000 家大客户能从 VCF 私有云中获得显著价值,而接下来的 20,000-30,000 家中小型企业是否有同样需求,仍需进一步观察。后续有进展我会及时更新。
Q:我想聚焦毛利率问题。我理解你们预计第四季度毛利率将环比下降 70 个基点,主要原因是软件营收环比下降及无线通信、XPU 业务占比提升。但根据我的测算,要实现 77% 的毛利率(此处可能指某板块毛利率,原文表述为 “spot 7”,结合上下文推测为综合毛利率相关),要么半导体业务毛利率持平(但我认为实际可能下降),要么软件业务毛利率需提升至 95%(环比提升 200 个基点)。能否解释一下,哪些因素共同作用使得毛利率仅环比下降 70 个基点?
A:好的,正如我在发言中提到的,XPU 业务占比将提升,无线通信业务也将增长,同时软件营收也会略有上升。
Q:你刚才说的是 “XPU”(而非 “TPU”)吧。
A:是的,是 XPU。无线通信业务通常是全年营收最高的季度,因此 XPU 和无线通信业务(毛利率通常较低)占比提升,而软件营收会略有增长,这些因素共同作用使得毛利率环比下降 70 个基点。
Q:关于第四家客户,你过去曾提到第 4、5 家客户更偏向超大规模企业,第 6、7 家更偏向 LLM 开发企业。能否介绍一下第四家客户的分类?如果不便透露也没关系。此外,关于 100 亿美元订单,能否说明交付时间范围?
A:首先,从本质上讲,这 7 家企业都在从事 LLM 开发 —— 并非所有企业目前都拥有庞大的平台,但未来都有可能构建平台,因此很难严格区分 “超大规模企业” 和 “LLM 开发企业”。
关于 100 亿美元订单的交付时间:大致在 2026 财年下半年,更准确地说,可能集中在 2026 财年第三季度。
Q:是在第三季度开始交付,还是整个 100 亿美元订单都在第三季度交付完毕?
A:交付的开始和结束都在第三季度。
Q:我想了解纵向扩展以太网(scale-up Ethernet)的发展势头,以及它与 UALink、PCIe 解决方案的对比情况。低延迟特性对产品竞争力有多重要?未来一年,纵向扩展以太网在你们 AI 网络业务中的增长潜力有多大?
A:这是个很好的问题,我们也在持续关注这一领域。首先,我们的以太网解决方案与任何厂商的 AI 加速器都是完全解耦的,我们始终将两者视为独立组件 —— 尽管 “网络即计算机”,但我们一直坚信以太网是开源技术,客户应有自主选择的权利,因此不会将以太网与 XPU 绑定。
但实际情况是,对于使用我们 XPU 的客户,我们会协同开发网络交换机及其他相关组件,以优化集群内的网络信号传输 —— 事实上,我们开发的所有 XPU 都具备以太网接口,这一点与客户已达成共识。
因此,对于使用我们 XPU 的客户,我们会公开支持以太网作为首选网络协议,且客户不一定必须使用我们的以太网交换机(也可选择其他厂商的产品)—— 只是我们在该领域处于领先地位,因此获得了较多订单。而对于采用封闭 GPU 系统的客户,我们的以太网交换机渗透率较低,但在超大规模客户中情况不同:这些客户能将 GPU 集群与网络架构独立设计(尤其是在横向扩展场景中),因此我们向他们销售了大量用于横向扩展的以太网交换机。我们预计,随着跨域扩展需求的增加,即使是部署 GPU 的场景,与 GPU 解耦的以太网交换机需求也将进一步增长;而对于 XPU 场景,以太网无疑是标准配置。
Q:我的问题聚焦竞争格局,包括网络业务和 ASIC(专用集成电路)业务:你在之前的回答中提到了一些相关内容,但想进一步了解 —— 在 ASIC 领域,你是否认为来自美国或亚洲厂商的竞争压力在增加或减少?在网络领域,UALink 或 PCIe 是否有可能在 2027 年(预计其开始放量的时间)取代 SUE(纵向扩展以太网)?
A:感谢你关注 SUE(纵向扩展以太网)。坦白说,我对此有偏见,但理由很明显:以太网技术已被充分验证,且所有超大规模客户的 AI 数据中心架构师和工程师都对其非常熟悉,因此以太网是他们的合理选择,而且他们也确实在使用以太网。我实在无法理解为何会有人选择开发独立的专有协议。
以太网技术成熟、应用广泛,且具备持续升级的潜力。人们对以太网的主要担忧是延迟问题(尤其是在纵向扩展场景中),这也是 NVLink 技术出现的原因。但正如我此前所说,我们(及其他以太网厂商)只需对交换机进行微调,就能实现极低的延迟 —— 轻松低于 250 纳秒,甚至优于 NVLink 和 InfiniBand。我们已经实现了这一点,难度并不大。
之所以能做到这一点,是因为我们在以太网领域已有 25 年的技术积累,技术储备充足,无需开发新的 “特殊协议”(此处原文 “KUKA protocol” 应为口误,指专有协议),也无需说服客户接受新协议 —— 以太网本身就是行业标准。此外,以太网的竞争环境也很健康(因开源属性),客户若对我们的产品不满意,可选择其他厂商,这也是超大规模客户青睐以太网的原因之一 —— 市场有充分竞争,我们也支持这种开放生态。
再谈谈 XPU(ASIC)领域的竞争:我们确实看到了竞争,这一领域的竞争一直存在。我们维持市场地位的唯一策略是 “加大投资、持续创新”—— 幸运的是,我们是首个推出 XPU 模式 ASIC 芯片的厂商,且是半导体领域 IP(知识产权)开发规模最大的厂商之一(如串行器 / 解串器 SerDes、先进封装技术、低功耗设计等)。因此,我们只需持续投入研发,就能在竞争中保持领先,目前来看我们在这方面做得还不错。
Q:你们有 3-4 家核心客户正逐步扩大 XPU 部署,随着 AI 集群数据中心规模不断扩大,差异化和效率的重要性日益凸显,这也为 XPU 创造了更大的发展空间。从长期来看,为何我们不应认为你们在这些核心客户中的 XPU 份额会超过 GPU 份额?
A:你的结论是正确的,长期来看 XPU 份额必将超过 GPU。这是一个循序渐进的过程,也是一场持续多年的 “旅程”—— 因为 XPU 技术本身也在不断迭代,我们为每位核心客户开发的 XPU 至少有 2 个世代的版本。随着新一代 XPU 的推出,客户对 XPU 的采购量和使用量会逐步增加:他们对 XPU 的信心不断增强,模型性能持续优化,部署规模也随之扩大。
因此,这是一个必然趋势:随着客户成功部署 XPU,且其软件栈(如芯片上的库)逐步稳定并验证有效,他们会更有信心将更大比例的计算负载迁移至自主开发的 XPU 上。我们目前已看到这一趋势,这也是我们所说的 “份额逐步提升” 的核心原因。