简体
  • 简体中文
  • 繁体中文

热门资讯> 正文

4o-mini华人领队也离职了,这次不怪小扎

2025-08-19 09:16

明敏 发自 凹非寺

量子位 | 公众号 QbitAI

哦豁,OpenAI奥特曼又痛失一员大将。

Kevin Lu,领导4o-mini发布,并参与o1-mini、o3发布,主要研究强化学习、小模型和合成数据。

下一站是Thinking Machine Lab,OpenAI前CTO Mira Murati出走后新创立的AI公司,估值已达120亿美元。

不完全统计,Thinking Machine Lab已经集结数位OpenAI前核心研究员,包括John Schulman、Barrett Zoph、翁荔等。

从Meta到OpenAI,再离开

Kevin Lu毕业于UC伯克利,主要研究强化学习和离线序列数据建模。

毕业后先后加入Hudson River Trading和Meta,2024年3月加入OpenAI。

入职3个月后领导团队完成了4o-mini,这是一个多模态推理小模型。支持图文输入、长上下文,适合复杂任务;同时速度更快、成本更低。

此外还参与了o1-mini和o3的模型开发。主要擅长的领域应该是小模型和强化学习。

其引用量最高的一篇论文是《决策Transformer:通过序列建模进行强化学习》,引用量2254。

这篇论文发表于2021年,研究团队集结了UC伯克利、Meta AI、UCLA、OpenAI和Google Brain。

这是一个将强化学习问题视为条件序列建模的架构,通过将自回归模型基于期望回报(奖励)、过去的状态和动作进行条件化,决策Transformer能够生成期望回报的未来动作。

近期,Kevin Lu的一篇与他主要研究领域相关的博客还有点出圈:互联网才是唯一重要的技术。

他认为现在对Transformer架构的关注有点过高了,真正重要的还是数据。研究者们应该关注如何从互联网这样的数据源中学习和预测,因为互联网提供了大量序列相关数据,非常适合进行“下一个token预测”。

在少量数据的环境里,Transformer将失去价值。

以及现在强化学习难以实现从GPT-1到GPT-4般的重大突破,应该停止进行强化学习研究,将注意力放在产品开发上。

强化学习的未来可能涉及到新的数据源和奖励机制创新,这可能是AI研究的新方向。

刚刚完成20亿美元种子轮融资

Kevin Lu的下一站Thinking Machine Lab,也是AI领域近期讨论度最高的初创公司之一。

它由OpenAI前CTO Mira Murati联合多位OpenAI前成员成立。

除了Mira本人外,团队核心成员已经覆盖AI领域目前的主要方向:

  • John Schulman,OpenAI联创,ChatGPT架构师

  • Barrett Zoph,OpenAI前研究副总裁,后训练专家

  • 翁荔,OpenAI前AI安全系统负责人,专长AI安全

  • Andrew Tulloch,擅长预训练&推理

  • Luke Metz,专注后训练

  • Alexander Kirillov,OpenAI前多模态研究负责人

  • ……

以及新加入的Kevin Lu,擅长小模型和强化学习。

根据LinkedIn信息,Kevin Lu已于7月正式从OpenAI离职。几乎同时,Thinking Machine Lab完成破纪录种子轮融资,估值飙升到120亿美元。

而且在最近激烈的硅谷人才大战中,Thinking Machine Lab独善其身,十几名成员无人接受小扎offer,10亿美元薪酬都拒绝。

不过Thinking Machine Lab目前还未公开任何成果,倒是让人更加期待了。

参考链接:

 [1]https://x.com/miramurati/status/1945166365834535247

[2]https://kevinlu.ai/

(声明:本文仅代表作者观点,不代表新浪网立场。)

风险及免责提示:以上内容仅代表作者的个人立场和观点,不代表华盛的任何立场,华盛亦无法证实上述内容的真实性、准确性和原创性。投资者在做出任何投资决定前,应结合自身情况,考虑投资产品的风险。必要时,请咨询专业投资顾问的意见。华盛不提供任何投资建议,对此亦不做任何承诺和保证。