热门资讯> 正文
2025-08-05 20:17
(来源:君实财经)
君实财经主要关注软件、网络广告、服务器、必需/可选消费等领域,每日更新记录与基本面相关的有价值信息。
算力芯片专家交流纪要
Q:有说法最近英伟达向台积电下了 21 万或 30 万张 H20 的额外订单?需求来源?
A:根据多方厂商确认,这一消息预计并不属实。目前英伟达尚未收到国内客户明确的交货订单,核心原因是美国政府虽宣布开放 H20 对华交付,但实际许可证尚未发放。国内头部互联网企业如字节、阿里仍处于观望状态,仅腾讯提供了初步信息,这些企业在获得出口许可前不会大规模下单,避免申请被拒导致产品无法交付。此外,英伟达现有库存中约有 30 多万片未封装的芯片,短期内无需追加生产。即便未来需调整产能,从调线到最终交付也需 9-10 个月,其中包括 3 个月调线周期和 4 个月以上生产周期,因此短期内不存在紧急追加生产的需求。有业内人士推测,相关传言可能源于英伟达恢复 CoWoS 封装订单被误解为新增 H20 订单,而英伟达并未明确指示台积电调整产能生产额外 H20 产品。
Q:网信办就 H20 安全漏洞约谈英伟达?国内客户怎么看这个问题?
A:英伟达从 A 系列开始便具备相关功能,并延续至 H 系列。虽然隐私问题可能引发客户一定担忧,但预计与数据泄露无太大关联。从行业观察来看,有关部门此举更可能是为了向美方施压,减少未来类似产品的限制性条件,同时要求英伟达关闭潜在风险功能,而非单纯针对已存在的安全漏洞问题。国内客户虽关注隐私安全,但对实际数据泄露风险的担忧程度有限,更多聚焦于后续产品限制条件的调整。
Q:RTX PRO 6000 今年在海外市场 120-140 万的交付预期中客户的分布情况?
A:在海外市场的交付预期中,非 CSP 客户占比较高,而 CSP 客户主要将其用于推理场景,但未进行大规模部署。这是因为 RTX PRO 6000 在推理任务上性价比突出,但训练性能有限,难以满足大规模训练需求。从用户结构来看,互联网用户占比约 30%-40%,其余大部分为零散的小型专业用户,例如从事专业级小规模模型设计或 2B 类业务的用户,这类用户对产品的专业性需求明确,但采购规模相对分散。
Q:国内市场对 RTX PRO 6000 的需求情况如何?二线互联网厂商需求情况?
A:国内市场中,字节仍是 RTX PRO 6000 的最大客户,占比最高,其次是腾讯。不过字节和阿里手中仍有大量 H20 或 MI308 尚未上线,因此对 RTX PRO 6000 的需求有所下降,但总体交付比例结构未发生显著变化。值得注意的是,二线互联网厂商对 RTX PRO 6000 需求较多,预计每家需求量通常在 2 万至 4 万片之间,总体贡献接近 20 万片,成为国内市场需求的重要组成部分。
Q:RTX PRO 6000 服务器目前有哪些规格?代工份额如何分布?
A:规格方面,当前主流配置为单机 8 卡,散热方式以风冷为主,也有部分客户尝试开发单机 16 卡版本,其中部分采用液冷方案以提升散热效率。代工份额上,超微在该领域优势明显,占据 40% 的份额;广达主要服务国外互联网客户,占比 20%-30%;与联想合作紧密的伟创和英业达各占不到 10%;而华硕、技嘉、微星等其他厂商的占比则更小,整体代工市场呈现头部厂商主导的格局。
Q:CoWoP 方案是否具备可行性?传在 GB100 上测试,在 GR150 上应用?
A:CoWoP 方案的可行性较低,核心问题在于其对 PCB 工艺要求极高。国内主流 PCB 厂商反馈,以现有工艺生产会导致 PCB 良品率下降 30%-40%,短期内难以实现量产。目前仅有日本 PCB 厂商能提供相对可靠的品质,但其产能极其有限,且价格较高,无法支撑大规模量产需求。虽然在 GB100 上进行测试是可能的,但在 GR150 上应用的可行性仅 30%-40%,风险极高。此外,该方案在焊接技术和后期维护上挑战较大,台积电等厂商也仅处于早期测试和验证阶段,因此英伟达更可能将其作为技术储备,而非近期量产方案。
Q:OpenAI 计划年底上线 100 万颗 GPU 是否具有可行性?当前其规模及未来发展节奏如何?
A:OpenAI 近期完成 GPT-5 训练,共使用 17-18 万张 GPU。GPT-5 上线后用户需求将大幅增长,Copilot 和第三方 CSP 均在积极接洽,因此年底上线 100 万颗 GPU 具有一定可行性。由于 OpenAI 自研 ASIC 短期内无法满足需求,其正与 AMD 积极谈判,希望未来英伟达与 AMD 各占 50% 市场份额,最终预计英伟达占 60%、AMD 占 40%,若 AMD 实际表现达标,有望实现各占一半。合作方面,AMD 与微软、Oracle 合作密切,今年向 Oracle 承诺交付 25 万片,微软 2025 年预计采购 40 万片 MI350 和 MI355X,这使得微软对 AMD 的采购量将接近对英伟达的采购量。
Q:OpenAI 第一代 Titan ASIC 设计和 TPU 很接近?和 OpenAI 最近开始更多租用 TPU 有关?
A:从技术角度看,OpenAI 第一代 Titan ASIC 与 TPU 设计接近具有合理性。TPU 作为第一代 ASIC 的成功设计,后期许多 ASIC 或多或少参考了其思路,这种架构接近性对未来模型的延续性有辅助作用,能更好地适配现有和未来的模型研发需求。而 OpenAI 近期更多租用 TPU,可能与自研 ASIC 尚未成熟、短期需外部算力支撑有关,两者虽无直接因果,但架构接近性为租用 TPU 提供了一定的技术适配基础。
Q:怎么看 OpenAI 和微软新达成的合作协议?如何定义 AGI?对后续关系和合作的实质意义?
A:微软当前迫切需要通过 OpenAI 弥补自身模型研发短板,例如 Copilot 功能优化和 Bing 搜索引擎升级等,由于内部资源和第三方无法解决这些问题,不得不深化合作。微软选择以模糊且灵活的方式定义合作条款,既保障短期技术支持,又避免过度依赖,以便未来快速调整或终止合作。其长期目标是发展独立能力并打造开放平台生态。此次合作未明确定义 AGI,更多聚焦于技术互补,实质意义在于微软短期内借助 OpenAI 维持竞争力,同时为自身独立研发争取时间。
Q:GPT-5 训练完成后是否有性能等方面的初步信息和发布时点?
A:GPT-5 预计在 8 月初发布,目前已进入测试阶段,在 Copilot 和 ChatGPT 上针对部分客户开放了 reasoning 和 mini 版本测试选项。其最大特点是多模态能力显著提升,实现了完整的多模态模型,在多个大模型评测指标上表现优异,预计发布后将占据多数评测榜单榜首位置,有望给市场带来 “眼前一亮” 的体验。这一进展将进一步巩固 OpenAI 在大模型领域的领先地位,推动相关应用场景的拓展。
Q:最近 AWS 云计算部门裁员超过百人背后的原因?
A:AWS 云计算部门裁员主要集中在客户服务和项目管理岗位,核心技术人员未受影响。裁员的主要原因是这些职能岗位的工作已逐步被人工智能工具取代,通过 AI 工具能更高效地处理客户咨询和项目协调,减少了对人工的依赖。这一调整是 AWS 优化成本结构、提升运营效率的举措,旨在将资源更多投向底层架构设计等核心技术领域,保障长期竞争力。
Q:Jaguar Shores 目前进展如何?规格、性能预期及目标客户?
A:Jaguar Shores 进展缓慢,预计 2027 年底推出样品。其规格近一年未更新,仍停留在接近 B200 的水平,例如 HBM4 的 288G 算力等指标。按照这一进度,到 2027 年底该产品可能缺乏竞争力,因为届时英伟达产品或将领先一代甚至更多。其目标客户确实瞄准训练场景,但受进展缓慢和性能预期不足影响,能否实现市场突破仍存疑,短期内难以对现有市场格局形成冲击。
Q:英特尔向苹果和英伟达提供 14A 制程的 Design Kit 工具包,其意义和后续流程如何?
A:英特尔向苹果和英伟达提供 14A 制程 PDK(Design Kit)是合作的基础第一步,保障客户在产品设计后端能使用该工具包进行布线和仿真,具有重要价值。但后续验证流程漫长,需经历至少一代多产品验证,涉及 2-3 代 PDK 改版,总耗时约 2.5 年,预计 2028 年才能成熟并具备大规模服务能力。这标志着英特尔在先进制程领域的客户拓展取得进展,但距离实际商用仍有较长周期。
Q:怎么看陈立武提到如果 14A 没有实质客户就放弃这个制程?他的考虑?
A:陈立武的这一表态反映了英特尔在先进制程研发上的务实策略,14A 制程研发投入巨大,若没有实质客户,将面临高昂成本无法回收的风险。不过,由于 2028 年距离当前尚有数年时间,期间市场需求、技术竞争格局可能发生变化,董事会决策存在调整空间。目前行业对其策略看法尚不清晰,关键取决于未来能否吸引苹果、英伟达等核心客户的实质订单,以支撑制程的持续研发和量产。
Q:IFS 俄勒冈工厂裁员 2400 人主要涉及哪些团队?是否会影响 18A 和 14A 项目进展?
A:此次裁员主要集中在与 18A 相关的团队。俄勒冈工厂原本承担早期验证工作,但陈立武要求严格控制成本,将产品验证流程迭代次数从五次缩减至一到两次,导致工厂工作负荷显著降低,因此裁撤了大量人员。此外,18A 未来不再为客户提供服务,原承担早期客户服务支持的岗位也被削减,仅保留必要人员。这一调整是基于业务优化的考量,对 18A 和 14A 项目的核心进展影响不大,更多是成本和资源的重新分配