简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

如何解读高通推出的AI芯片?

2025-10-28 20:56

(来源:君实财经)

如何解读高通推出的AI芯片?推理为第一战场

战略上高通希望做大芯片存储押注差异化需求。高通AI芯片的存储将配置768GB LPDDR,主要适配对存储要求更高的长上下文推理等场景,押注AI芯片的特化趋势(重计算或重存储的取舍)。

收购Alphawave补足SerDes等通信组网能力。高通于25年6月对价24亿美元收购Alphawave,其专注高速互联IP与定制芯片设计,SerDes具备224Gbps级别能力,大幅补足了高通在数据中心AI芯片通信方面的能力。

核心问题仍然是芯片开发生态。相较于竞争对手AMD已培养了初步成熟的ROCm生态+近期获取了OpenAI的支持;高通AI 200/250芯片在开发生态上差距较大、仍需寻找优质客户共同迭代补足开发生态。尽管AI芯片成熟仍有难度,但高通低估值+新的AI芯片增长逻辑催化,市场对其长期趋势变得更乐观。

1)视频生成需要大量内存。我们认为高通设计选择旨在优化当前瓶颈:即推理时的内存容量和每token能耗,而非训练吞吐量,避免了2025-2026年HBM供应瓶颈。LPDDR通常每GB成本更低,且比服务器DDR更省电,尽管其带宽远低于HBM。通过将计算单元紧密部署在LPDDR旁,并在AI250中分层实现近内存计算方案,我们认为对于广泛的大模型推理工作负载,内存容量、访问局部性和批处理行为对总拥有成本(TCO)的影响,远大于单纯的峰值张量计算单元。这种方案适合推理,但不适合需要模型并行的训练相关任务则吸引力较小。

2)Humain(沙特AI公司)客户已经签的合作协议具有标杆性,但其它非中东客户或许待进一步拓展?高通表示,每个机架的功耗为160千瓦;因此,200兆瓦的部署大约需要1250个机架(200,000千瓦 ÷ 160千瓦/机架)。根据机架级别的定价和配置,这一个客户就可能带来非常可观的多年硬件收入。作为高端机架级AI系统的基准,英伟达的GB200/GB300 NVL72机架的价格范围在260万至300万美元之间。如果单个mw价格类似,按照最乐观场景看这么算确实EPS会在27年多10%,我们认为中东客户一向乐于采购各种新AI芯片产品,sambanova groq cerebras等等最大客户均位于中东,能否拓展北美客户或者为实际容量。

3)互联:高通即将进行的24亿美元Alphawave收购来增强其高速连接IP,这与芯片间互连(chiplet I/O)、串行器/解串器(SerDes)以及机架级互连相关IP。如果高通打算在机架/机柜规模上扩展到解耦推理和内存池,那么这一点至关重要。

根据产业信息,该产品与DRAM上下堆叠,类似使用3D DRAM的混合键合工艺,产业趋势更加明朗。定制化3D DRAM方案也具备超高带宽、低功耗等特点,持续关注产业进展。

此外,市场关注HBM3E三星定价低,无需担忧:三星HBM3E产能翻倍,同时稼动率较低,此前HBM3E落后海力士和美光,因此定价低,试图抢占份额,但不影响普通DRAM的缺货趋势。

建议重点关注:兆易创新翱捷科技拓荆科技瑞芯微北京君正

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。