热门资讯> 正文
2025-08-15 07:53
(来源:电子创新网)
在AI技术爆发的当下,从智能手机、AR眼镜、智能家电到边缘服务器,AI算力已经成为新一代终端设备的核心竞争力,传统CPU的通用计算能力正在让位于更具效率和灵活性的专用计算单元。面对这一趋势,芯原股份(VeriSilicon)基于自身丰富的处理器IP技术储备,正在以一种“解耦+重组”的算力计算新范式,让AI芯片像“乐高积木”一样灵活,重新定义了AI处理器的设计。
“AI 计算正在从CPU-centric转向更加多元的架构,GPGPU、GPU、NPU三者共同构成了新的AI基础设施。”芯原股份首席战略官、执行副总裁、IP事业部总经理戴伟进在接受我的专访时指出,“芯原拥有20多年GPU技术积累,在AI计算领域持续深耕,具备坚实的架构基础。”
首席战略官、执行副总裁、IP事业部总经理戴伟进
大概是在2016年左右,一个采用我们GPU的欧洲客户问他们可否在图形处理的时候加入一些图像识别的处理能力,这就是较早期的AI计算需求。当时人工智能还没有火起来,但我们认为这种需求未来有很大的发展空间,因为它激活了另一类计算需求。”他回忆说。
也就是从那时起,芯原开始布局AI计算,以此构建自己的产品基石。
戴伟进表示芯原将AI算力架构划分为三大类核心技术:
GPGPU(通用图形处理器)
GPGPU主要承担大部分通用AI计算任务。芯原基于20多年的GPU技术积累,已打造出具备高并发浮点运算能力的可编程架构GPGPU,适合各类AI通用计算场景。
NPU(神经网络处理器)
芯原的NPU架构基于GPU的并行计算能力而延伸,支持深度学习推理和部分训练任务,具备高效能与低功耗兼顾的能力。根据应用需求,还可通过不同的配置模式支持定制化AI计算。
GPU(图形处理器)
芯原的GPU IP拥有20年的发展历史,已在全球出货超过20亿颗。芯原的GPU架构还可以集成可配置的AI加速器,能够加速AI和深度学习任务。此外支持多核扩展、单核内多簇扩展和单核内多处理单元扩展,能够根据不同的算力需求灵活配置。
戴伟进表示这三种技术在芯原的产品矩阵中不是孤立存在,而是通过可灵活解耦的架构设计来进一步实现按需组合,形成一个“模块化AI算力平台,如下图所示。
实际上,芯原的AI计算芯片设计平台不拘泥于单一核结构,而是可以按需由多个功能IP模块组合而成,这就是模块化设计的真谛。每一个模块都可以独立裁剪、灵活替换或增强配置,以适配不同场景和客户需求。
为什么要模块化?戴伟进表示模块化是应对AI多样化和碎片化应用的最优解,当今AI应用日趋碎片化:有的追求高算力(如大模型训练),有的要求极低功耗(如语音唤醒),有的则重视低延迟和本地实时性(如AR眼镜),如果用一个“通用大核”去覆盖所有场景,会出现能效浪费、硅面积冗余、功耗过高等问题,因此灵活的模块化才是最优解。芯原可以按场景需要实现灵活配置与组合的方式。
例如,从超低功耗的AIoT设备到支持大模型推理的边缘服务器,芯原均可基于统一架构平台提供定制化的“标准版/轻量版/增强版”解决方案。
芯原支持将多个IP模块横向拼接,实现从1 TOPS到上千TOPS的扩展。
多核集群共享总线、统一调度;
典型用于:数据中心训练/推理卡、边缘训练/推理设备、AI PC等;
还可使用Chiplet方式组合多个处理集群;
芯原可根据客户的功耗预算、面积预算、模型类型、带宽需求,对IP进行硬件级定制裁剪,实现量身定制的AI引擎。
AI计算离不开软件生态,戴伟进表示芯原构建了Acuity开发工具包,实现从模型编译、优化到推理部署的全流程覆盖,并兼容TensorFlow / PyTorch / ONNX / MLIR / Baidu Paddle,CUDA-like 接口用于GPU/GPGPU调度;支持 DirectML、XLA、ONNX Runtime的轻量训练等。
这一软件栈能在同一平台上高效运行图像处理、视频增强、Transformer、大语言模型等多种AI模型,支撑应用场景的快速迭代。
从“通用芯片”走向“定制平台”
戴伟进表示芯原的模块化设计带来四大优势:
维度 |
描述 |
---|---|
平台复用性 | 同一架构平台支撑从可穿戴到服务器的产品线 |
研发效率提升 | 新客户无需重新设计底层架构,只需配置已有模块 |
芯片面积优化 | 精准定制不浪费每一平方毫米硅片 |
生态一致性 | 同一软件栈可部署于不同形态设备,提升开发效率 |
这就是为什么芯原能够在AR眼镜、智能音箱、扫地机器人、AI PC甚至大模型训练/推理服务器中,使用同一代NPU平台做“低配-中配-高配”的延展组合。
无论是4K智能摄像头还是Always-on的家电控制器,客户均可通过模块自由组合方式,构建最适配的AI引擎,这正是“像乐高一样”的灵活性所在。
总结:模块化让AI芯片像“乐高积木”一样灵活
戴伟进表示芯原的模块化AI计算架构就像一个“乐高积木”平台:每一个IP模块是标准化的“砖块”,可以根据AI场景需要,自由“拼出”最佳组合,既兼顾效率,也不牺牲灵活性。
这种设计思路不仅是技术选择,更是商业策略,它使得芯原能服务于众多垂直客户、覆盖广泛应用场景,并快速响应AI算力不断演进的趋势。