简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

开源证券-通信行业周报:云栖大会总结,阿里上调资本开支,2032年AIDC功耗将增长10倍,看好国产AI提速发展-250928

2025-09-28 09:44

(来源:研报虎)

阿里加大资本开支,2032年AIDC功耗将增长10倍

  2025年9月18日,阿里巴巴云栖大会召开,阿里表示将在3年3800亿AI资本开支计划外追加更多投资,在2032年阿里IDC能耗较2022年提升10倍,并提出ASI目标,强调两大AI战略。应用方面,公司发布7款大模型,旗舰模型Qwen3-Max性能全球前三。硬件方面,发布磐久AIInfra2.0128卡超节点AI服务器、高性能网络HPN8.0、自研飞天+CIPU架构等。巨头持续加大AI资本投入,通过柜内超节点、柜外scale across等方式构建万卡或10万卡等更大算力规模集群,弥补单芯片算力及显存不足的差距,我们持续看好国产AI大模型及应用发展,国内算力产业链或持续受益。

阿里发布128卡超节点AI服务器,网络侧升级至800G

  公司发布磐久AIInfra2.0128卡自研超节点AI服务器,支持多种AI芯片,单柜支持128个AI计算芯片,内部集成公司自研CIPU2.0芯片和EIC/MOC高性能网卡,采用开放架构,扩展能力较强,可实现高达Pb/s级别Scale-Up带宽和百ns极低延迟,相对于传统架构,同等AI算力下推理性能还可提升50%;公司推出新一代高性能网络HPN8.0,采用训推一体化架构,存储网络带宽拉升至800Gbps,GPU互联网络带宽达到6.4Tbps,搭配灵骏集群,可支持单集群10万卡GPU高效互联,助力AI训推提效。

阿里发布7款大模型,不断丰富Qwen模型家族,性能持续提升

  阿里正式发布旗舰模型Qwen3-Max,是通义千问家族中最大、最强的基础模型,预训练数据量达36T,总参数超过万亿,性能超过GPT5、Claude Opus4等,跻身全球前三,包括指令(Instruct)和推理(Thinking)两大版本,在Coding编程能力和Agent工具调用能力上有较大提升;发布下一代基础模型架构Qwen3-Next,模型总参数80B仅激活3B,性能即可媲美千问3旗舰版235B模型,模型训练成本较密集模型Qwen3-32B降低超90%,长文本推理吞吐量提升10倍以上;多模态模型中,Qwen3-VL开源,拥有极强的视觉智能体和视觉Coding能力,在32项核心能力测评中超过Gemini2.5-Pro和GPT5。

重视国产算力各大细分板块

  推荐标的:中兴通讯英维克源杰科技紫光股份盛科通信光环新网奥飞数据、新意网集团、中际旭创新易盛天孚通信中天科技亨通光电

风险提示:5G建设不及预期、AI发展不及预期、中美贸易摩擦

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。