热门资讯> 正文
2025-10-17 17:10
人工智能企业的竞争力核心往往取决于三大支柱:顶尖人才、优质数据与高性能芯片。本周,OpenAI选择了在芯片这一关键环节另辟蹊径。
10月13日,这家ChatGPT开发商宣布与博通(Broadcom)达成协议,将从后者采购定制芯片与网络组件,旨在为其数据中心新增10吉瓦的容量。然而,不同于此前与英伟达和超威半导体(AMD)合作时直接采购现成芯片的模式,OpenAI此番计划是与博通携手,共同进行硬件的定制化设计。
该项目预计耗资数百亿美元,虽有望为OpenAI带来显著的技术优势与成本效益,但也伴随着巨大的财务风险——尤其是在OpenAI已承诺未来数年投入逾1万亿美元用于各类基础设施项目之际,这进一步加剧了市场对人工智能泡沫的担忧。
一位熟悉该公司想法、因讨论内部信息而要求不披露其身份的知情人士透露,通过与博通联合开发硬件,OpenAI预计其芯片采购成本将比采购英伟达芯片降低20%至30%。不过,目前项目尚处于早期阶段,芯片仍未投入生产。
点滴节省终将积少成多。正如我此前报道,OpenAI高管曾表示,建设一个算力约1吉瓦的数据中心通常耗资约500亿美元,其中大部分(350亿美元)将用于购置部署在这些设施的先进芯片。
除财务价值外,OpenAI此举还可能使其对关键且时常难以预测的AI供应链拥有更多控制权。倘若该项目成功,OpenAI将获得额外的芯片来源,从而弥补英伟达等合作伙伴可能出现的供应短缺——众所周知,英伟达的图形处理器订单积压严重。
OpenAI还能针对特定AI程序的需求优化芯片设计,并将模型运行反馈的数据与发现反哺至芯片开发,从而形成良性循环。此外,OpenAI可以借鉴其在数据中心建设方面积累的经验,用以重新思考从服务器机架设计到冷却技术等数据中心内部诸多硬件的配置。
这些底层升级或许不如新一代尖端模型那般炫目,但在理想情况下,此类投资或将为OpenAI打造出更高效的基础设施,从而为其AI软件提供强大支撑,并与那些资金雄厚且已布局自研硬件的对手抗衡。
“这对他们而言是一项重要优势,”基准资本(Benchmark)专注半导体行业的分析师科迪·阿克里(Cody Acree)指出,“这绝非孤立地设计一款能效更高的芯片那么简单,而是要对芯片架构、网络互联乃至数据中心本身进行全方位的系统性设计。”
10月13日,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)在一档播客节目中表示,公司与博通最初仅着手开发芯片,但随后意识到需要开发一整套定制系统才能满足OpenAI的需求。
但阿克里指出,OpenAI的芯片之路必然伴随着“陡峭的学习曲线”。半导体开发不仅复杂昂贵,更需要极大的耐心与坚定的决心。定制芯片的设计往往需要投入数十亿美元,组建专属专家团队,并经过多轮迭代才可能成功。
纵观OpenAI在该领域的竞争对手,谷歌研发张量处理单元(TPU)已逾十年,但直到过去几年才完成对新一代生成式AI工作负载的优化;亚马逊的云服务部门同样在十年前收购了以色列安纳普尔纳实验室(Annapurna Labs),以此切入这一高难度领域。
定制芯片(即专用集成电路,简称ASIC)的另一个主要问题是,与更通用的芯片相比,它们面临快速过时的风险,尤其是在AI技术飞速变革的当下。
与经验丰富的芯片设计公司博通合作,为OpenAI开辟了捷径,使其能够跻身台积电繁忙的芯片制造日程。然而,OpenAI作为研发方,仍需自行明确核心需求并解决技术实现难题。该公司表示,计划于2026年底开始部署这批定制芯片。
与OpenAI近期其他基础设施的大规模投入一样,一个核心问题依然悬而未决:若其AI服务需求增长放缓甚至停滞,这些投资将何去何从?OpenAI正在积极寻找资金渠道,以支撑其在芯片和数据中心领域激增的投资。尽管该公司今年营收有望达到130亿美元,但预计未来多年仍难以实现盈利。
大和资本市场美国公司(Daiwa Capital Markets America)的股票研究执行董事路易斯·米西奥斯西亚(Louis Miscioscia)在本周的分析报告中指出:“尽管我们看好AI的前景,但一个担忧始终存在:以当前的投资规模,人工智能究竟能否达到市场的高预期?”
为规避此类风险,OpenAI可采取的策略之一,是提升其庞大数据中心业务的创收能力与资源利用率。OpenAI首席财务官萨拉·弗雷尔(Sarah Friar)此前向彭博新闻社透露,公司可能借鉴亚马逊云业务的模式,向其他企业开放算力租赁服务。
此举有助于确保OpenAI的芯片与设施物尽其用。“只要我们提供更强大的计算资源和数据中心容量,整个行业自然会发掘出相应的应用场景,”阿克里表示。“这某种程度上成了一个自我实现的预言,”他补充道,“只要为需求开辟一片新天地,人类自会前去探索。”编辑/陈佳靖