熱門資訊> 正文
2026-01-29 14:38
機器人領域的風向可能又要變了。
1 月 28 日,Figure 發佈了自己最新的模型 Helix 02,並配上了一段三分半左右的視頻演示。
作為普通人,乍一看這個視頻可能覺得平平無奇,只是一個機器人在廚房里走來走去,做了一些把碗從洗碗機里拿出來收到櫃子里之類的操作。
不過,就在視頻快要結束之時,出現了一個極其擬人的動作。
它在關洗碗機的門時,先是用腳頂了一下,把洗碗機的門踢了起來,隨后才彎腰關上了門。
機器人收碗可能之前是見過的,但這個動作之前卻沒有見過。
過去我們熟悉的機器人的邏輯是分塊的。導航、走路、抓取,它們被切分成互不干擾的模塊。
2025 年的機器人,基本上可以大概被劃分爲兩類。一類關注全身控制的機器人的,會跳舞的機器人,本質上是在執行一段死板的程序,即使中途撞到障礙物,它也會機械地跳完。
而另一類關注靈巧操作的機器人,也就是會收碗的機器人,通常只是上半身在忙碌,下半身像個死板的底座,被輪子負載,僅僅負責位移。
但在 Helix 02 的突破點是,在這個模型中,運動與操作被徹底統一,一統了兩類機器人的問題。
Figure 的工程師並沒有預先訓練它「如何用腳踢門」。這個動作是機器人基於內部知識的自發選擇——它可能是判斷到了彎腰太低對於重心不方便,於是根據當前的物理環境,自主判斷出「用腳踢」是最高效的輔助手段。
2025 年,Figure 已經官宣估值到達 390 億美金,比宇樹傳聞的 1000 億人民幣上市估值仍要高 3 倍。
這家全球最貴的人形機器人公司,研究出來的用腳關洗碗機,可能會終於解決大家對於跳舞的機器人不會干活的吐槽,引領下一波機器人風潮。
此次,Figure 發佈的是它的新模型,Helix 02。
模型本身是端到端的設計。
頭部的全景攝像頭、掌心的近距離相機、指尖的觸覺傳感器,全身的關節運動狀態全被喂進神經網絡。
而輸出則是一個完整的全身動作包。在這個瞬時的決策里,包含了腿部的支撐力、軀干的平衡傾角、手臂的延展路徑,以及每一根手指的捏合力度。
一個模型,就可以控制 Figure 03 的 30 個自由度的機器人本體。
目前主流的 VLA 模型,大多依賴於向機器人喂入海量數據,比如通過人類遙控機器人收碗的數據,來訓練它學會收碗這項技能。
而相比之下,Helix 02 的神經網絡不再去學習「如何做一個收碗的任務」,它更多學習的是「人類運動的一般規律」。Helix 02 學習的是超過 1000 小時的重定向到關節的人類全身動作數據,藉此獲得了一種通用的物理先驗。
除了用腳頂洗碗機門,還有一個動作也受到了大家的廣泛關注。
在拿完東西關抽屜的時候,Helix 02 的模型直接選擇了用胯頂了一下抽屜,把抽屜門關上。
Figure 自己在博客里解釋了為什麼要做這樣一套運動和操控結合的系統:
移動操控,即機器人將移動和操控物體作為一種單一、連續的行為的能力,一直是機器人領域最難解決的問題之一。這並非因為單獨實現這兩項能力有多麼困難,而是因為同時實現這兩項能力難以進行清晰的分解。舉起重物時,機器人的平衡會發生變化;向前邁步時,機器人的觸及範圍也會發生變化。手臂和腿會不斷地相互制約。
人形機器人已經展現出令人印象深刻的短期行為,例如跳躍、跳舞和瑜伽,但幾乎所有機器人都存在一個侷限性:它們並非真正可控。大多數系統只是在離線狀態下重現預先規劃的動作,且反饋有限。如果物體發生移動或接觸情況發生變化,行為就會崩潰。
傳統機器人通過將運動和操作分離到不同的控制器中,並用狀態機將它們連接起來來解決這個問題:行走、停止、穩定、伸展、抓取、再次行走。這種切換方式速度慢、難以判斷,而且不自然。
真正的自主需要一些根本不同的東西:一個能夠同時對整個身體進行推理的單一學習系統。一個能夠持續感知、決策和行動的系統——邊走邊搬運,邊伸手取物邊調整平衡,並實時糾正錯誤。
事實上,這種思路與 Figure 早期開發 Helix 第一代模型時一脈相承。當時 Helix 證明了單個神經網絡可以控制機器人的整個上半身,而不只是侷限在機械臂或夾爪上。
但在那個階段,這種能力依然存在侷限。因為機器人的底座是固定的或者獨立的,它只能在有限的範圍內活動。
如今 Helix 02 的出現,將端到端的控制擴展到了機器人的每一個關節,實現了真正的全身自主。
而且在這段未剪輯的視頻中,Helix 02 連續執行了 61 個運動操作動作,甚至展示了彎腰操作這種既考驗平衡性,又考驗操作性的動作,顯示 Helix 02 已經在這套架構中取得了一定的成功。
而作為觀眾直觀地去看時,當運動和操控結合進了一個模型,機器人更像是開始擁有了某種基礎的身體意識,開始終於懂得「我手里抱着東西呢,用胯頂一下抽屜吧」這種之前人類才具有的「全身即工具」的直覺。
之所以能實現這樣的統一,部分原因是 Helix 02 的架構里,此次塞進了一個極其關鍵的底層組件:System 0。
這是一個專門負責物理本能的神經網絡。在它出現之前,工程師們必須手動編寫複雜的物理方程來維持機器人的平衡。Figure 這一次乾脆刪掉了 109,504 行手工編寫的 C++ 代碼,用一個單一的神經網絡先驗取而代之。
System 0 的核心任務只有三個:平衡、接觸和全身協調。它的運行頻率高達 1000 赫茲,這意味着它每秒鍾要向電機下達 1000 次指令。這種極高的處理速度,讓它能夠像人類的脊髓反射一樣,在意識到「要摔倒了」之前,就已經完成了肌肉力量的對衝。
更有趣的地方在於 System 0 的訓練方式。工程師們並沒有為行走、轉身或者蹲下分別設計複雜的獎勵函數,而是直接給模型餵了超過 1000 小時的人類全身動作數據,重定向到關節上,在仿真中進行了強化學習的訓練。
在學習如何「復現人類動作」的過程中,模型自發地學會了如何協調全身的力矩,如何在各種姿勢下維持重心。這就是為什麼 Helix 02 的動作看起來不再僵硬,因為它不再是按照公式在計算平衡,而是在復刻一種被數據驗證過的「人類直覺」。
在 Helix 02 這種三層架構里,每一層都有明確的職責分工。處於最高層的是 System 2,它像是一個冷靜的指揮官,負責語義推理。它不再需要操心機器人怎麼邁步,而是直接下達模糊的目標指令,比如「走到洗碗機那並打開它」或者「把碗拿到櫃檯上去」。
中間層 System 1 則是敏捷的執行經理。它以 200 赫茲的頻率運行,負責把眼睛看到的像素和指揮官的目標,轉化為全身上下 30 個關節的運動目標。
最后,這些目標被交到 System 0 手里,轉化為真實的扭矩輸出,出現誤差也可以獲得高頻的修改。
事實上,關於這種模型的討論,在 2025 年就已經成為機器人圈子的前沿關注點。
具身智能投資人筆盒提到,之前英偉達發佈的 Sonic 項目、西湖大學的身外化身系統,都展示了類似的邏輯。英偉達的 Sonic 項目當時用的 700 小時的數據。再往前,這種技術路線可以一路追溯到學術界的經典工作,比如 DeepMimic 和 BeyondMimic 系列。
在 2026 年的 CES 上,Sharpa 也展示過類似 CraftNet 的工作,核心也是 System 1 與 System 0 的耦合。
Sharpa 提出的「最后一毫米智能(LMI)」,就是利用 System 0 在接觸物體的瞬間,通過觸覺與力反饋進行實時精修。System 0 的運行頻率約為 100 Hz,這讓機器人能夠像人手一樣,感知阻力、滑動並進行實時修正。
2026 年,system 0 為機器人帶來的驚喜可能會更多。
除了全身自主這一重頭戲,Helix 02 還有不少其他看點:
比如藉助 Figure 03 的硬件底座,Helix 02 真正觸達了多指靈巧操作的邊界。以前的人形機器人往往在「自身遮擋」面前束手無策——一旦身體擋住了頭部攝像頭的視線,機器人就會變成瞎子。但 Figure 在每一隻手的掌心都塞進了一枚廣角攝像頭,這給了它一種「手心長眼」的上帝視角。
配合每個指尖能感知 3 克微力的觸覺傳感器,它現在能完成極其細碎的動作:從雜亂的藥盒里摳出一片單薄的藥丸,或者在注射器上精準地推出 5 毫升液體。這種精細度意味着機器人不再只能干搬運箱子這種體力活,它開始具備了處理複雜工業零件、甚至是家庭護理的潛能。
在硅谷,Figure 的機器人是一個相對神祕的存在,他們很少出現在熱鬧的展會現場。
但在資本市場,它的聲浪卻是海嘯級的。2025 年 9 月,Figure 完成了超過 10 億美元的 C 輪融資,估值飆升至 390 億美元。
Figure 的創始人佈雷特·阿德科克(Brett Adcock)是一個極其硬核的連環創業者。他在 2022 年創立公司時,並沒有先去忽悠風投,而是直接從兜里掏出了 1 億美元的個人資金砸了進去。這種「帶資進組」的底氣,讓 Figure 從一開始就保持了極高的獨立性。
一個最典型的細節是,Figure 曾經是 OpenAI 在具身智能領域的頭號合作伙伴,但這種合作關係在 2025 年 2 月戛然而止。
分手的理由就是 Figure 宣稱 Figure 發現自己搞出來的 Helix 模型已經足夠強悍。它不再需要一個遠在雲端的通用大模型來指揮自己,而是要構建一套屬於物理實體的、像素到扭矩的內生邏輯。這種權力的收回,標誌着 Figure 正式從「硬件載體」進化成了「大腦、小腦、身體」三位一體的完全體。
阿德科克曾公開表示,Figure 的終極目標是讓機器人像人類一樣進入每一個未知的家庭環境,執行那種不需要監督的、跨時天的複雜家務。在更遠的願景里,這些機器人還將承擔起老年人護理,甚至是前往其他星球進行太空探索的重任。
第一代的 Figure 機器人就曾經進寶馬工廠打工,而且有趣的是還是公司還公佈了它的退休故事:在那里的 11 個月里,它協助組裝了超過 3 萬輛寶馬 X3,行走了 200 多英里。
而 2025 年的新融資之后,阿德科克設計了一個極其宏大的「Master Plan」:他要在四年內通過自建的 BotQ 工廠生產 10 萬臺機器人。
當同一個機器人不止能跳舞,同時用同樣的靈活性學會了用腳關門,學會了從藥盒里摳出藥片,市場前景可能比單獨會跳舞的機器人或者輪式的雙臂機器人大很多。
起碼包括英偉達在內的不少資本,已經在 Figure 身上下注了。
*頭圖來源:Figure
本文來自微信公眾號 「極客公園」(ID:geekpark),作者:Li Yuan,36氪經授權發佈。