简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

OpenAI机器人部门因军事部署条款分歧而失去主要领导人凯特琳·卡林诺夫斯基

2026-03-08 04:56

上周六,凯特琳·卡林诺夫斯基(Caitlin Kalinowski)表示,她已从OpenAI辞职,她认为,人工智能在无人监控美国人和武器系统方面的潜在用途,需要比他们所接受的更仔细的辩论。她的退出是因为OpenAI扩展到五角大楼的机密项目,该项目的安排保持了两个明确的限制:没有国内大规模监视和要求人类控制任何武力的使用。

Kalinowski在一篇关于X的文章中说,她仍然相信人工智能对国家安全很重要,但在没有法院监督和没有人类授权的致命自主权的情况下,围绕国内间谍活动划定了严格的界限。

她还将辞职定性为价值观呼吁,而不是个人纠纷,同时表示她尊重萨姆·奥尔特曼,并仍然为她的机器人团队的成就感到自豪。

“我从OpenAI辞职。我非常关心机器人团队和我们共同建立的工作。这不是一个容易的决定。人工智能在国家安全中发挥着重要作用。但在没有司法监督的情况下监视美国人和在没有人类授权的情况下致命的自主权,这些都值得更多的考虑。这是关于原则,而不是人。我对萨姆和他的团队深感尊重,我为我们共同建立的一切感到自豪,”她在帖子中写道。

我从OpenAI辞职。我非常关心机器人团队和我们共同建立的工作。这不是一个容易的决定。人工智能在国家安全中发挥着重要作用。但在没有司法监督的情况下监视美国人以及在没有人类授权的情况下致命的自主权……

卡林诺夫斯基的担忧与目前决定顶级人工智能实验室与美国国家安全机构谈判方式的两条断层线相呼应:国内监视和使用武力的自主性。她在帖子中表示,这些问题没有按照她预期的审议程度来权衡。

与此同时,Altman描述了OpenAI的姿态从避免机密接触转向与战争部进行接触,并称这一转变紧迫且比之前的工作更加复杂。他还表示,OpenAI此前已经放弃了竞争对手Anthropic实验室接受的机密机会。

正如奥特曼的评论所描述的那样,OpenAI在五角大楼的安排保持了两个护栏完整,同时添加了一些操作措施,例如让OpenAI工程师现场观察模型的行为和安全。奥尔特曼还表示,该公司将建立技术限制,以保持系统在预期限制内运行,战争部也希望获得这些保护。

此次辞职是在OpenAI最近与五角大楼达成协议之后达成的,该协议是在特朗普政府因拒绝从自己的协议中删除类似安全条款而将竞争对手Anthropic列入黑名单几小时后达成的。OpenAI首席执行官Sam Altman强调,战争部接受了两项核心原则:禁止国内大规模监视以及要求在使用武力时进行人为监督。

这种正在发生的情况凸显了两家公司的截然不同的做法,Anthropic拒绝调整其条款导致国防部长皮特·赫格塞斯(Pete Hegseth)将其列为“供应链风险”,而OpenAI则成功谈判达成了符合美国现有法律和政策的条款。这种并列引发了人们对人工智能在国家安全中的道德影响的质疑,特别是在监视和自主武器方面。

当Anthropic拒绝改变立场时,国防部长皮特·赫格塞斯将该公司标记为供应链风险,唐纳德·特朗普总统指示各机构和军事承包商切断联系。Anthropic周五表示,该公司“深感悲痛”,称这一指定“在法律上不合理”,并警告称,这将“为任何与政府谈判的美国公司树立危险的先例”。"

奥尔特曼还表示,OpenAI进行了谈判,以便其他人工智能开发人员可以获得类似的条款,而不仅仅是他的公司。即便如此,分歧的结果仍然严峻:OpenAI表示它接受了两个护栏,而Anthropic尽管描述了类似的红线,但最终还是被列入黑名单。

奥尔特曼表示,美国战争部认为这些原则与美国现有的法律和政策一致,他认为OpenAI的迅速举动是为了避免他认为的人工智能实验室之间危险的竞争轨迹。相比之下,卡林诺夫斯基的辞职凸显了当同样的界限被认为没有得到充分审查时,内部人才可能会做出何种反应。

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。