简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

算力供给模式正经历系统性重构

2026-03-31 06:47

  2026年,AI产业正经历一场深刻的范式转换。从大模型训练到智能体应用,从技术驱动走向商业驱动,算力的角色也在悄然改变。就在2026中关村论坛年会期间,一场关于算力基础设施的讨论揭示了这一变革的核心命题:当AI从“能用”走向“好用”,如何适应这一最新形势让更多算力顺利落地?

  算力形态从“训练为王”到“推理主导”

  一个共识正在形成:算力基础设施正从“算力工厂”转向“Token工厂”。这意味着,算力的服务对象已从模型训练为主,转向以推理和商业化变现为核心。这一判断并非孤例。就在本月,OpenAI宣布其推理API调用量在过去6个月增长了近5倍,Meta在财报电话会议中也明确指出,2026年将是“推理基础设施投资超过训练投资”的转折年。英伟达CEO黄仁勋同样强调:“推理将成为未来十年算力消耗的主战场。”

  在这一背景下,算力系统的设计逻辑正在重构。业内专家提出了一个关键判断:当前市场存在“认知缺失和产品空白”。传统的8卡GPU服务器已难以满足日益增长的推理需求,而数百卡级的超大规模系统又显得“过于奢侈”。市场迫切需要一种介于两者之间的新型算力单元——既具备足够的性能支撑主流模型推理,又能兼顾部署门槛与成本可控。

  “40卡”的甜点区,为什么是它?

  3月26日,中科曙光在中关村论坛现场发布了世界首个无线缆箱式超节点scaleX40。这款产品的意义并不只在于性能提升,而在于它试图回答一个关键问题——如何让超节点从“少数人的能力”变成“多数人的标配”。

  从当前市场需求来看,AI算力结构正在发生分层变化。根据行业机构预测,全球AI基础设施投入仍将保持较快增长,但新增需求正逐步从超大规模集群转向企业级和行业应用场景。

  在这一趋势下,算力配置的重点不再单纯追求规模上限,而是更加关注性能、成本与灵活性的平衡。业内普遍共识:几十卡规模已足够满足大多数行业场景模型训练、推理及开发测试的算力需求,这也是兼顾效率与投入的最大公约数区间。

  scaleX40的规模配置恰好落在性能与成本的平衡点上,既具备支持大模型训练和推理的能力,又不会带来过重的投入压力。向下,可兼顾32卡,满足中小规模训练、推理和开发测试;向上,它可以通过扩展,组成更大规模集群。

  这种“可小可大”的能力,让企业可以根据业务节奏逐步投入,而不是一次性押注。单节点既可支持中等规模AI任务,同时又具备标准化扩展能力,可以根据业务需求逐步构建更大规模集群。这种设计使算力部署更贴近企业实际节奏,避免一次性高投入带来的资源压力。

  多位嘉宾在分享中提到,企业真正需要的并不是一味更大的集群,而是在可承受成本范围内获得稳定、可扩展的高端算力能力,scaleX40超节点正好契合了这一需求。

  从单点突破到全栈协同的系统重构

  超节点的价值不仅在于硬件架构的创新,更在于其对算力供给模式的系统性重构。中国电信研究院云网融合技术研究所智算网络技术负责人王子潇分享了一组数据:“我们测试发现,以超节点形态提供推理服务,性能比传统8卡机提升2.6倍。”他认为,这种提升的根本原因在于超节点将节点间通信带宽提升了一个数量级,时延从微秒级降至百纳秒级。

  联想AI资深架构师耿太平总结了超节点的三大核心价值:统一架构消除内耗、全局内存赋能智能体、软硬协同开箱即用。他表示:“超节点正是智能计算变得可用、易用、好用的关键引擎。”

  当前,AI正加速进入千行百业。无论是智能制造、科学研究,还是智能体应用、多模态融合,算力都不再是少数企业的“战略资源”,而是更多组织的“基础配置”。当超节点开始以更简单的方式被部署和使用,高端算力才会加速从“能力选项”转变为“体系标配”,而这或许正是中国AI真正走向规模化应用的起点。 (达涌)

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。