繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

太瘋狂了!Meta裁員裁到田淵棟頭上,連組員一鍋端

2025-10-23 11:52

夢晨 發自 凹非寺

量子位 | 公眾號 QbitAI

很瘋狂,Meta AI裁員能裁到田淵棟頭上,而且是整組整組的裁。

田淵棟在Meta工作已超過十年,現任FAIR研究科學家總監(Research Scientist Director),他領導開發了早於AlphaGo的圍棋AI「Dark Forest」,近期在大模型領域也推出了整合快慢思考的Dualformer模型、以及開創性的「連續思維鏈」(Coconut)範式。

這樣一位大佬突然面臨找工作了,OpenAI以及各路初創公司反應都很快,直接開始在評論區排隊搶人。

看來這次由新任首席AI官亞歷山大王主刀的Meta AI大裁員,不只是明面上精簡組織那麼簡單,

田淵棟其人

田淵棟擁有上海交通大學計算機系的本科和碩士學位,隨后在卡內基梅隆大學(CMU)機器人研究所獲得博士學位。

他的職業生涯始谷歌無人駕駛汽車項目組擔任軟件工程師。

約在2014年,田淵棟加入Facebook(現Meta)的人工智能研究院(FAIR),至今已近十年。

在DeepMind的AlphaGo震驚世界之前,田淵棟團隊已在圍棋AI領域取得重要進展。

2015年,田淵棟主導發佈了圍棋AI「Dark Forest」,達到了頂尖業余棋手的水平。在AlphaGo之后,田淵棟團隊基於AlphaGo Zero和AlphaZero的算法,完成了開源復現項目ELF OpenGo,僅靠單GPU就能戰勝世界頂級的人類選手。

2017年起,田淵棟的研究重心轉向AI的可解釋性與基礎原理

2019年,OpenAI聯合創始人Ilya Sutskever曾邀請田淵棟加入,共同研發語言模型,田淵棟因希望專注於「理解神經網絡模型的工作原理」而拒絕了邀請。

語言模型爆發后,Transformer成為AI研究最重要的工具,田淵棟還是堅持他認為更根本的的研究道路,不是簡單訓練發佈模型,而是致力於提高LLM在複雜推理和規劃任務上的能力。

下半年開始,他在AIR負責領導一個專注於規劃和推理方向的團隊,團隊規模約為10人,展開了一系列研究。

  • 內存高效的訓練方法GaLore: 將預訓練7B模型所需的內存壓縮至24GB以內,使得在單張消費級顯卡(如RTX 4090)上進行預訓練成為可能

  • 快慢思考整合Dualformer:通過在訓練中隨機移除推理鏈的部分步驟,使模型能夠動態切換「快思考」(對簡單問題直接給出答案)和「慢思考」(對複雜問題展開深入推理)

  • Coconut連續思維鏈:不再依賴離散的自然語言思維鏈,而是將推理軌跡壓縮並保留在連續的隱空間中。

  • 理論探索CoGO:揭示了由梯度下降獲得的神經網絡解與代數結構之間存在關聯,增加了對神經網絡表示能力的理解。

就在剛剛過去的9月,他還發表了一篇獨作論文,揭示了揭示了關鍵超參數對「頓悟」(Grokking)中扮演的角色,從梯度動力學的第一性原理揭示了為什麼像 Muon 這樣的最新優化器可以有效的根本原因。

……

One More Thing

除了科研,田淵棟也是一位科幻小説家,第一部長篇小説作品《破曉之鍾》於2024年出版。

在他的2024年個人年終總結里,還透露接下來的第二部長篇小説會嘗試使用AI輔助寫作。

他在職場遭遇的瘋狂經歷,能化作創作的靈感也説不定。

參考鏈接:

[1]https://x.com/tydsh/status/1981167436859920861

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。