热门资讯> 正文
2025-11-03 22:10
AI技术正以前所未有的速度改变世界,科技巨头们纷纷布局AI领域,以差异化战略抢占市场先机。近日,高通与英伟达便相继推出了各自的AI相关产品。其中,高通选择以推理场景作为突破布局数据中心市场,通过技术创新实现成本与性能的平衡;英伟达则不满足于硬件供应,而是通过构建全栈生态和跨领域布局,争抢其在AI基础设施领域的主导地位。
据DC Market Insights数据,全球数据中心市场规模在2020年已达到2246.1623亿美元,并预计在2025年飙升至3857.0629亿美元,至2035年,将突破万亿美元大关。随着AI模型应用的日益规模化,推理需求正成为推动市场结构变化的关键,ASIC等专用芯片或逐步侵蚀GPU的市场份额。
这一趋势恰恰为高通、华为等提供了机会。然而,AI领域的比拼并不止于芯片,还有生态。在业内看来,英伟达凭借其CUDA生态,仍在高端训练市场占据主导地位。不过,本土化需求与政策,势必将加速国产芯片的自主化进程,致使全球AI芯片市场进入多元竞争的阶段。
高通、英伟达加码AI
全球AI数据中心市场正以惊人速度扩张。瞄准这一蓝海,芯片巨头高通与英伟达相继推出重要产品。
近日,高通宣布推出AI200和AI250两款AI加速器芯片,这意味着这家移动芯片巨头正式进军数据中心市场。作为新入局者,高通采取了差异化竞争策略,专注于AI推理市场,并非直接挑战英伟达在训练领域的地位。
具体到产品设计上,高通表示,Qualcomm AI200定位为机架级AI推理解决方案,重点面向大语言模型及多模态模型推理场景,强调在总体拥有成本与性能之间的优化平衡。该芯片单卡支持高达768GB的LPDDR内存,在扩展性与成本控制上具备明显优势。而AI250则引入近存计算(Near-Memory Computing)架构,可实现超过10倍的有效内存带宽提升。
值得关注的是,未来,高通在人工智能芯片领域的更新趋于常态化。对于人工智能芯片在高通的定位和未来计划,高通方面告诉笔者,Qualcomm AI200与AI250预计将分别于2026年和2027年实现商用。这些产品是高通多代数据中心AI推理技术路线图的一部分,并将以年度为迭代周期。
高通的这一动作并非偶然。随着全球智能手机市场增长放缓,高通正在寻求业务结构的多元化,拓展数据中心AI业务成为其关键的转型路径。2024财年财报显示,高通总营收为389.6亿美元,其中手机芯片业务贡献248.63亿美元,占比达64%。
几乎在同一时间,英伟达在GTC 2025大会上宣布,美国四大云端巨头今年已采购360万片Blackwell芯片,并预计到2028年数据中心资本支出将突破1万亿美元。同时,英伟达首次展示了Vera Rubin超级芯片。
公开报道显示,这款芯片结合了两个Rubin GPU和一个Vera CPU,通过NVLink C2C互连技术实现高达1.8TB/s的带宽。
更重要的是,英伟达的战略远不止于硬件本身,其已将其定位从芯片供应商提升为AI基础设施的架构师,提出的“AI工厂”概念。这一概念将数据中心视为生产智能的系统,而不仅仅是计算任务的执行场所。
国产芯片相关人士分析认为,随着AI模型逐渐成熟并大规模应用,使用模型进行推理的算力需求正在爆发式增长。高通推出的AI200和AI250芯片正是专注于这一场景,其设计目标不是训练更强大的模型,而是更低成本、更低功耗地运行现有模型。支持768GB大内存、采用“近内存计算” 架构和液冷散热,这对于大规模部署AI应用的企业极具吸引力
厂商侧重点不同 芯片进入多元化竞争
随着AI推理需求的爆发和6G时代的临近,算力市场的竞争焦点正从单一的硬件性能,转向对算力、网络、应用完整链条的掌控能力。
目前,在全球AI芯片市场不同厂商基于技术积累与市场判断,走出了差异化的发展路径。这其中,不管从技术角度看,还是从生态角度看,短期内英伟达的地位仍难以撼动。
国产芯片相关人士告诉笔者,英伟达的核心竞争力集中在云端训练与高端推理市场。特别是近20年布局的CUDA生态让英伟达构建了从芯片硬件到软件工具、从开发框架到行业应用的全栈体系,这种生态壁垒让其在超大规模模型训练、国家AI设施建设等高端场景中几乎难以找到对手。
尤为关键的是,就在发布Vera Rubin芯片的同期,英伟达宣布斥资10亿美元入股诺基亚,并成为其第二大股东。根据双方协议,诺基亚将在其无线接入网(RAN)产品中引入基于英伟达技术的商用级AI - RAN(人工智能无线接入网)产品。这意味着英伟达的加速计算能力将直接嵌入全球数百万个基站,为5G - A和未来的6G网络提供原生AI支持。
事实上,对于国内市场而言,受英伟达出口管制政策影响,国产厂商迎来了难得的战略机遇期。国产厂商在政策扶持与市场需求的双重驱动下,正加大研发投入,加速技术迭代,力求在AI芯片领域实现自主可控与弯道超车。
目前,在国内市场对自主可控AI芯片的需求持续攀升。根据IDC发布的《中国半年度加速计算市场(2024下半年)跟踪》报告,2024年中国加速芯片市场出货量超过270万张,其中GPU卡占据70%市场份额,国产AI芯片出货量达82万张,占比30%。
从技术路线上来看,国产厂商多采用通用、专用并行策略。其中,华为昇腾芯片兼顾训练与推理,依托鲲鹏生态和国内政企客户资源快速落地;海光基于x86生态,在兼容性与稳定性方面具备优势,能够满足部分对生态依赖较强的用户需求;寒武纪专注推理芯片,在智能驾驶、边缘计算等场景形成优势,通过深度优化算法与硬件架构,实现了高效的推理性能;壁仞科技则聚焦高端通用算力,试图在云端市场实现突破。
值得注意的是,随着AI技术的普及,算力市场正呈现出训练与推理工作负载分离的趋势,且推理需求的爆发使得专用芯片的优势日益凸显,这一趋势为专注于推理优化的公司创造了机会。
高盛最新研报预测,2025 - 2027年间,ASIC芯片在AI芯片中的占比将从38%提升至45%,而GPU芯片占比将从62%降至55%。这一变化背后的逻辑在于,随着AI模型逐渐成熟,模型训练的频率相对降低,而基于现有模型进行推理的应用场景却大幅增加。专用芯片针对特定推理任务进行优化设计,能够在性能、功耗和成本之间实现更好的平衡,从而满足市场对高效推理解决方案的迫切需求。
目前,包括谷歌的TPU系列、亚马逊的Trainium系列、华为的昇腾系列、阿里的PPU系列、百度的昆仑芯系列都在这一领域积极布局。
国产芯片相关人士分析认为,未来,头部企业将凭借技术、生态和资金优势,提供一站式的算力解决方案;在行业应用方面,AI芯片将深入到医疗、金融、交通、工业等各个垂直领域,针对不同行业的特点和需求进行定制化开发;同时,随着技术的不断进步和成本的降低,AI芯片将更加普惠。