繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

Akamai推出AI网格智能编排技术,用于在4400个边缘节点进行分布式推理

2026-03-16 20:30

Akamai Inference Cloud 是业界首个全球规模的 NVIDIA AI Grid 部署方案,它能够智能地在其边缘、区域和核心网络中路由 AI 工作负载,从而平衡延迟、成本和性能。

加州圣何塞,2026年3月16日(GLOBE NEWSWIRE) —— Akamai Technologies(纳斯达克股票代码:AKAM)今日宣布,其人工智能发展历程中的一个重要里程碑是发布了NVIDIA® AI Grid参考设计的首个全球规模部署。通过将NVIDIA AI基础设施集成到Akamai的基础设施中,并利用其网络中的智能工作负载编排功能,Akamai旨在推动整个行业摆脱孤立的AI工厂模式,迈向统一的分布式AI推理网格。

此举标志着Akamai推理云( 去年底推出)发展历程中的重要一步。作为首家将AI网格投入运营的公司,Akamai正在部署数千块NVIDIA RTX PRO 6000 Blackwell服务器版GPU ,为企业提供一个平台,使其能够以本地计算的响应速度和全球网络的规模运行智能体和物理AI。

Akamai首席运营官兼云技术集团总经理Adam Karon表示:“AI工厂专为训练和前沿模型工作负载而构建,集中式基础设施将继续为这些用例提供最佳的代币经济效益。但实时视频、物理AI和高度并发的个性化体验需要在接触点进行推理,而不是往返集中式集群。我们的AI Grid智能编排为AI工厂提供了一种向外扩展推理能力的方法——利用与内容分发相同的分布式架构,以合适的成本在合适的时间将AI工作负载路由到4400个不同的位置。”

“代币经济学”的架构

AI Grid 的核心是一个智能编排器,它充当 AI 请求的实时代理。该编排器将 Akamai 在应用性能优化方面的专业知识应用于 AI,其工作负载感知控制平面通过大幅降低每个令牌的成本、缩短首次令牌获取时间并提高吞吐量来优化“令牌经济模型”。

Akamai 的一大优势在于,其庞大的全球边缘计算网络能够让客户访问经过微调或稀疏化的模型,从而为大量人工智能工作负载带来巨大的成本和性能优势。例如:

  • 规模化成本效益:企业可以通过自动将工作负载匹配到合适的计算层级,显著降低推理成本。编排器应用语义缓存和智能路由等技术,将请求定向到大小合适的资源,并为真正需要的工作负载预留优质的 GPU 周期。这一切的基础是 Akamai 云,它构建于开源基础设施之上,并拥有充足的出口流量,以支持大规模的数据密集型 AI 操作。
  • 实时响应:游戏工作室能够以毫秒级的速度提供人工智能驱动的NPC互动,确保玩家沉浸其中。金融机构能够在登录到进入第一个页面的瞬间,执行个性化的欺诈检测和营销推荐。广播公司能够实时转码和配音内容,面向全球观众。这些成果得益于Akamai遍布全球的边缘网络,该网络拥有超过4400个节点,集成了缓存、无服务器边缘计算和高性能连接,能够在用户接触点处理请求,从而避免依赖源云的往返延迟。
  • 生产级 AI 核心:大型语言模型、持续的后训练以及多模态推理工作负载需要持续的高密度计算能力,而这只有专用基础设施才能提供。Akamai 的数千 GPU 集群由 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU 提供支持,可为最繁重的 AI 工作负载提供集中的强大算力,以集中式规模与分布式边缘计算形成互补。

计算的连续体:从核心到边缘

Akamai 基于NVIDIA AI Enterprise构建,并利用NVIDIA Blackwell架构和NVIDIA BlueField DPU实现硬件加速的网络和安全,能够管理跨边缘和核心位置的复杂 SLA:

  • 边缘计算(4400 多个节点) :为物理 AI 和自主代理提供快速响应。它将利用语义缓存和无服务器功能,例如 Akamai Functions(基于 WebAssembly 的计算)和 EdgeWorkers,在用户接触点提供模型亲和性和稳定的性能。
  • Akamai 云 IaaS 和专用 GPU 集群:核心公共云基础设施为大规模工作负载提供可移植性和成本节约,而由 NVIDIA RTX PRO 6000 Blackwell GPU 提供支持的 pod 则可实现繁重的训练后处理和多模态推理。

NVIDIA电信业务发展全球副总裁克里斯·彭罗斯表示:“新型原生AI应用需要可预测的延迟和更高的成本效益,并且要达到全球规模。通过部署NVIDIA AI Grid,Akamai正在构建生成式AI、智能体AI和物理AI的连接架构,将智能直接赋予数据,从而开启下一波实时应用浪潮。”

推动下一波实时人工智能浪潮

Akamai 的推理云在计算密集型、对延迟敏感的行业中已经获得了强劲的早期采用:

  • 游戏:工作室正在部署 50 毫秒以下的推理技术,用于 AI 驱动的 NPC 和实时玩家互动。
  • 金融服务:银行依靠网格在客户登录的关键时刻提供高度个性化的营销和快速推荐。
  • 媒体和视频:广播公司利用分布式网络进行人工智能驱动的转码和实时配音。
  • 零售和商业:零售商正在采用该网络在店内应用 AI 应用,并在销售点使用员工生产力工具。

在企业需求的推动下,该平台也得到了主要技术提供商的验证,其中包括一份价值 2 亿美元、为期四年的服务协议,用于在城域边缘为企业 AI 基础设施专门建造的数据中心内部署一个拥有数千个 GPU 的集群

将人工智能工厂从集中式扩展到分布式

第一代人工智能基础设施的特点是集中部署在少数几个地点的海量GPU集群,这些集群针对训练进行了优化。但随着推理成为主要工作负载,各行各业的企业都致力于构建人工智能代理,这种集中式模型面临着与早期互联网基础设施在媒体传输、在线游戏、金融交易和复杂微服务应用等领域相同的扩展性限制。

Akamai 通过相同的基本方法解决所有这些挑战:分布式网络、智能编排以及专用系统,这些系统将内容和上下文尽可能地整合到数字触点附近。采用该模型的企业已获得更佳的用户体验和更高的投资回报率。Akamai Inference Cloud 将同样的成熟架构应用于 AI 工厂,通过将密集计算从核心分布到边缘,实现下一波规模化和增长。

对企业而言,这意味着能够部署具有上下文感知能力和自适应响应能力的AI代理。对行业而言,这代表着AI工厂如何从孤立的设施发展成为全球分布式公用设施的蓝图。

可用性

Akamai Inference Cloud 现已面向符合条件的企业客户开放。企业客户可访问 https://www.akamai.com/products/akamai-inference-cloud-platform 了解更多信息并申请访问权限。Akamai 代表将于 2026 年 3 月 16 日至 19 日在圣何塞会议中心 621 号展位举行的 NVIDIA GTC 2026 大会上提供演示和洽谈服务。

关于 Akamai
Akamai 是一家网络安全和云计算公司,致力于为企业在线运营提供强大支持和保护。我们市场领先的安全解决方案、卓越的威胁情报和全球运营团队提供纵深防御,全方位守护企业数据和应用程序的安全。Akamai 的全栈云计算解决方案在世界最分布式的平台上提供高性能和高性价比的解决方案。全球企业信赖 Akamai,凭借其业界领先的可靠性、可扩展性和专业知识,助力企业自信发展。访问akamai.comakamai.com/blog了解更多信息,或在XLinkedIn上关注 Akamai Technologies。

联系方式
Akamai媒体关系
akamaipr@akamai.com


風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。