熱門資訊> 正文
2025-09-03 13:17
CausalMACE團隊 投稿
量子位 | 公眾號 QbitAI
在長周期、多步驟的協作任務中,傳統單智能體往往面臨着任務成功率隨步驟長度快速衰減,錯誤級聯導致容錯率極低等問題。
爲了應對這些問題,就需要構建具備全局規劃與因果依賴管理能力的分佈式智能體框架,並在真實遊戲中驗證效能。
基於此,來自港科廣和騰訊的研究團隊提出了CausalMACE方法,通過將因果推理機制系統性地引入開放世界多智能體系統,為複雜任務協同提供了可擴展的工程化解決方案。
目前,該工作已中稿EMNLP 2025 Findings。
全局因果任務圖
爲了讓一羣AI像項目團隊一樣,既分工明確又能動態調整。論文提出「全局因果任務圖」概念,讓AI學會「如果-那麼」的邏輯。
換句話説,就是先搭地基再砌牆,先找食材再下鍋。
具體來説,全局因果任務圖包含兩個部分:
而在方法框架層面,CausalMACE則包含「判斷」、「規劃」、「執行」三個環節。
Judger——「裁判」
實時驗證動作是否合法,並給出成敗反饋,保證所有智能體在同一套遊戲規則下行動。
Planner——「總工」
先把複雜任務拆成若干「小工單」,一次性列清。
然后再按遊戲規則畫一張「粗線條流程圖」。
之后,再用因果推理「精修」這張圖,對每一條先后關係,讓大模型回答「如果遊戲規則變了,這條先后關係還成立嗎?」
如果,所有規則改變均不影響關係的成立,就刪掉這條關係,避免 AI 做無用功。
經過這輪「去偽存真」,得到一張乾淨、可執行的任務因果圖。
Worker——「調度室」
首先,用深度優先搜索把因果圖拆成多條「生產線」,給每條生產線實時計算「繁忙指數」。其中,正在這條線上干活的 AI 越多、離起點越遠,指數越高。
接下來,讓新來的AI自動加入指數最低的那條線,既避免扎堆,也減少等待。每完成一步,AI 向 Planner 申請下一步任務,整個過程持續迭代。
實驗結論:完成率效率雙增強
在 VillagerBench 三項基準任務(建造、烹飪、密室逃脱)中,相較 AgentVerse 與 VillagerAgent 基線,任務完成率最高提升 12%,效率提升最高達 1.5 倍。
代理工作量更加平衡,相同設置下最大增益達到13%。
One more thing
這篇論文的通訊作者是來自香港科技大學(廣州)的助理教授、博士生導師——王浩教授。
他2023年博士畢業於新加坡南洋理工大學,曾在TikTok、地平線等公司科研工作。
主要研究興趣為大模型生成式智能體和三維重建。發表TPAMI、IJCV、CVPR、NeurIPS等領域頂級會議期刊論文50余篇。主持國家自然科學基金青年項目,參與國家科技部國家重點研發計劃項目,獲2023年SMP-IDATA晨星青年基金、2024年騰訊犀牛鳥專題項目。
論文鏈接: http://arxiv.org/abs/2508.18797
(聲明:本文僅代表作者觀點,不代表新浪網立場。)