熱門資訊> 正文
2026-03-24 11:13
2026年 3月18日--負責支持和保護網絡生活的雲服務提供商阿卡邁技術公司(Akamai Technologies, Inc.,以下簡稱:Akamai)(NASDAQ:AKAM)近日宣佈在人工智能演進過程中達成的一個重要里程碑:發佈首個全球規模的 NVIDIA® AI Grid 參考設計實施方案 。通過將 NVIDIA AI 基礎設施集成到 Akamai 的架構中,並利用網絡層面的智能工作負載編排,Akamai 旨在推動行業從孤立的 AI 工廠邁向統一、分佈式的 AI 推理網格 。
此舉標誌着去年底推出的Akamai Inference Cloud在演進中邁出重要一步 。作為首家實現AI網格運營化的公司,Akamai 正部署數千個基於NVIDIA RTX PRO 6000 Blackwell 服務器版 GPU的平臺,為企業提供能夠運行智能體和物理AI的解決方案,同時兼具本地計算的響應速度和全球網絡的規模優勢。
「AI 工廠是為訓練和前沿模型工作負載而構建的,中心化基礎設施將繼續為這些場景提供最佳的‘Token經濟’ (tokenomics),」Akamai 雲技術事業部首席運營官兼總經理 Adam Karon 表示 。「但實時視頻、物理 AI 和高併發個性化體驗要求推理需要在接觸點進行,而不是往返中心化集羣。我們的 AI Grid 智能編排為 AI 工廠提供了一種向外擴展推理的方式——利用革新了內容分發的分佈式架構,在 4,400 個站點以合適的成本和時間路由 AI 工作負載」 。
「Token經濟」的架構
AI Grid 的核心是一個智能編排器,充當 AI 請求的實時代理 。通過將 Akamai 在應用性能優化方面的專業知識應用於 AI,這個具備工作負載感知能力的控制平面可以通過顯著改善每個Token的成本、首個Token時間和吞吐量來優化「Token經濟」 。
Akamai 的主要優勢在於,客户可以通過其龐大的全球邊緣節點網絡,訪問經過微調或稀疏化的模型,這為長尾 AI 工作負載提供了巨大的成本和性能優勢 。例如:
·規模化成本效率:企業可以通過自動將工作負載與合適的計算層匹配,大幅降低推理成本 。編排器應用語義緩存和智能路由技術,將請求導向規模合適的資源,為高端任務保留優質 GPU 周期 。Akamai Cloud 基於開源架構,提供慷慨的出站流量額度,以支持大規模數據密集型 AI 操作。
·實時響應能力:遊戲工作室可以提供毫秒級延迟的 AI 驅動型 NPC 交互,維持玩家沉浸感 。金融機構可以在登錄到首屏之間的瞬間,執行個性化欺詐檢測和營銷推薦 。廣播公司可以為全球觀眾實時轉碼和配音 。這些成果得益於 Akamai 覆蓋 4,400 多個站點的分佈式邊緣網絡,通過集成緩存、無服務器邊緣計算和高性能連接,在用户接觸點處理請求,繞過了中心雲的往返延迟 。
·核心節點的生產級 AI:大型語言模型、持續后訓練和多模態推理工作負載需要專用基礎設施提供的持續高密度計算 。Akamai 擁有數千個基於 NVIDIA RTX PRO 6000 Blackwell 服務器版 GPU 的集羣,為最重的工作負載提供集中算力,與分佈式邊緣形成補充 。
計算連續體:從核心到遠端邊緣
基於NVIDIA AI Enterprise、Blackwell 架構和NVIDIA BlueField DPU,Akamai 能夠管理跨邊緣和核心位置的複雜服務等級協議 :
·邊緣 (4,400+ 個站點):為物理 AI 和自主智能體提供極速響應 。它利用語義緩存和 WebAssembly 等服務器端功能(Akamai Functions 和 EdgeWorkers)提供模型親和性和穩定的性能 。
·Akamai Cloud IaaS 與專用 GPU 集羣:核心公有云基礎設施支持大規模負載的遷移與成本節約,而 Blackwell GPU 陣列則助力繁重的后訓練和多模態推理 。
NVIDIA 電信業務發展全球副總裁 Chris Penrose 表示:「新型 AI 原生應用要求在全球範圍內實現可預測的延迟和更高的成本效率 。通過將 NVIDIA AI Grid 投入運營,Akamai 正在構建生成式、代理式和物理 AI 的連接紐帶,將智能直接帶到數據所在地,開啟下一波實時應用潮」 。
賦能下一波實時 AI
Akamai Inference Cloud 已在計算密集型和延迟敏感型行業獲得強勁的早期應用 :
·遊戲:工作室正部署亞 50 毫秒級推理,用於 AI 驅動型 NPC 和實時玩家交互 。
·金融服務:銀行依靠該網格在客户登錄的關鍵時刻進行超個性化營銷和快速推薦。
·媒體與視頻:廣播公司利用分佈式網絡進行 AI 驅動的轉碼和實時配音 。
·零售與商業:零售商在門店 AI 應用和銷售點生產力工具中採用該網絡 。
在企業需求驅動下,該平臺已獲得主要技術提供商的認可,包括一份為期四年、價值 2 億美元的服務協議,用於專為在城市邊緣企業 AI 基礎設施的數據中心內部署數千個 GPU 集羣 。
將 AI 工廠從集中式擴展到分佈式
第一波 AI 基礎設施由少數幾個中心化地點的海量 GPU 集羣定義,旨在優化訓練 。但隨着推理成為主導負載,且企業專注於構建 AI 代理,中心化模型面臨着與早期互聯網基礎設施在媒體交付、在線遊戲和金融交易中遇到的相同的擴展約束 。
Akamai正通過相同的基本方法解決這些挑戰:分佈式網絡、智能編排和專用系統,使內容和上下文儘可能靠近數字觸點。其結果是改善了用户體驗並增強了投資回報率。Akamai Inference Cloud 將這一成熟架構應用於 AI 工廠,通過將高密度計算從核心分發到邊緣,開啟下一波增長。
對於企業而言,這意味着能夠部署具備上下文感知能力且響應靈活的 AI 代理。對於行業而言,這代表了一個藍圖,展示了 AI 工廠如何從孤立設施演變為全球分佈式的公共設施。
可用性
Akamai Inference Cloud 現已面向符合條件的企業客户開放。瞭解更多及申請訪問請點擊Akamai官網。Akamai 代表將在 NVIDIA GTC 2026(3月16-19日,聖何塞會議中心 621 號展位)提供演示和會面。
關於 Akamai
Akamai是一家致力於支持並保護網絡生活的網絡安全和雲計算公司。我們卓越的安全解決方案、出色的威脅情報和全球運營團隊可提供深度防禦,保護各地的企業數據和應用程序。Akamai 的全棧雲計算解決方案可在全球分佈廣泛的平臺上提供高性能和經濟實惠的服務。全球多家企業堅信,Akamai 能夠提供卓越的可靠性、規模和專業知識,幫助企業滿懷信心地實現業務增長。