繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

AI專家給奧特曼潑涼水:純LLM從未真正理解世界,以此構建AGI沒希望

2025-06-30 17:25

劃重點:

  • 大語言模型存在嚴重推理缺陷,如蘋果《思維的幻覺》論文記錄其在基本推理任務中反覆失敗,而這只是更深層問題的表象,即缺乏穩定、更新、解釋的「內部世界模型」。
  • 人類和低等動物都能構建世界模型,大語言模型卻依賴語料統計迴歸,無法跟蹤事件進展、理解因果結構,缺乏相關數據結構,在實際任務中常違背規則。
  • 大語言模型在視頻理解、圖像生成等多領域會因缺乏世界模型而犯錯,如生成不存在內容、忽略關鍵行為,這種混亂在複雜任務中更危險,且其「知識錯覺」是系統性錯配。
  • 缺乏世界模型使大語言模型表現脆弱,在象棋、圖像生成等任務中出錯,在現實關鍵任務應用時可能導致嚴重后果,我們不能對「涌現」抱幻想,構建世界模型刻不容緩 。

6月29日消息,OpenAI首席執行官山姆・奧特曼(Sam Altman)滿懷憧憬,認為通用人工智能的曙光已近在咫尺,其觀點如同一劑強心針,讓眾多追隨者熱血沸騰,對未來的智能時代充滿無盡遐想。然而,美國認知科學家、人工智能專家加里・馬庫斯(Gary Marcus)卻如同一盆冷水,無情地潑向這看似熱烈的憧憬之中。

馬庫斯日前發表長文《生成式AI的致命缺陷:缺乏穩健的世界模型》(Generative AI’s crippling and widespread failure to induce robust models of the world),在學術與科技界引發強烈共鳴。這篇文章從一個荒誕的AI生成視頻切入——視頻中,一名國際象棋選手竟將對方的棋子橫向移動數格——引出他對當前生成式人工智能最深層的批判:這些模型雖然能「模仿思考」,但從未真正建立起對世界的穩定、可靠理解。

這並不是第一次有人指出大語言模型在推理方面存在嚴重缺陷。蘋果公司本月發佈的研究論文《思維的幻覺》(Illusion of Thinking)中,就係統記錄了大語言模型在邏輯推理和數學計算中頻繁出錯的實例。然而,正如馬庫斯所強調的,這些問題只是表象,其背后隱藏的是一個更深層次的結構性缺陷:當前的大語言模型並不真正「理解」世界,它們缺乏持續更新知識、追蹤事件變化、建立因果關係的能力,更無法構建出對現實的穩定認知框架。

以下是馬庫斯《生成式AI的致命缺陷:缺乏穩健的世界模型》全文:

今年6月,蘋果公司在其廣受關注的研究論文《思維的幻覺》中,詳細揭示了當前大語言模型在邏輯推理方面的嚴重失誤:它們會犯低級的邏輯錯誤、混淆基本事實、做出無法自圓其説的判斷。乍看之下,這似乎是模型訓練不夠充分、參數不夠龐大,或者缺乏「鏈式思維」機制所致。但我認為,問題遠比這更深。

蘋果所揭示的「幻覺」,其實只是冰山一角。真正令人擔憂的是,大語言模型在架構層面上就存在着一個根本性的缺陷:它們缺乏對世界的系統化建模能力。它們不能像人類一樣,構建出一個動態更新的、內部一致的「世界模型」來支撐認知與推理。它們沒有「意識到」自己在説什麼,也無法持續跟蹤事件的因果鏈,更無法理解自身生成內容的邏輯關係。

所謂「世界模型」(world model),是指一個系統——不論是機器、人類還是動物——用來感知和追蹤現實世界狀態的內部框架。這種模型不必完美,卻是智能行為的核心。例如,認知心理學家蘭迪・加利斯泰爾(Randy Gallistel)曾指出,連最簡單的動物如螞蟻都能構建世界模型。在尋找歸巢路徑時,螞蟻利用「航向推算」(dead reckoning)不斷更新自己所在的位置。它們在「變量」中保留關於自身位置的動態信息,從而可以準確返回巢穴。

同樣,在人工智能領域,所謂「認知模型」往往也被稱為世界模型。它是系統內部對某一片現實世界的持續、穩定、可更新的表徵。比如,一個數據庫可用於追蹤一組人的地址、電話、身份證號等信息;一個物理引擎或電子遊戲系統也會維護關於對象位置、屬性、運動狀態的動態表示。

在傳統人工智能與經典軟件工程中,設計明確的世界模型始終是核心。例如,計算機科學家艾倫·圖靈(Alan Turing)在1949年設計象棋程序「Turochamp」時,就將動態更新的棋盤模型作為核心組件,即便那時他還未擁有可以運行代碼的硬件。艾倫·紐厄爾與赫伯特·西蒙的「通用問題求解器」(General Problem Solver)也是如此,它以對問題情境的建模為基礎,解決複雜任務。

回到認知心理學的語言,當我們閲讀文字時,其實就是在構建一個「認知模型」,對文本中提及的事物、角色、關係與事件進行抽象和整合。比如我們在閲讀兒童小説《農場男孩》(Farmer Boy)中某段情節時,會自然在腦中形成一個包含人物(Almanzo、Mr. Thompson)、物品(錢包)、事件(交談、喊叫、摸口袋)等元素及其關係的內部表示。

這種內部心理建構,正是「世界模型」的體現。而在AI歷史上,許多經典的文本理解系統(如Peter Norvig博士論文中提到的架構)正是通過不斷積累這樣的模型,來實現對故事情節的理解。雖然這些模型未必完整,卻必須穩定且可用。尤其在規則穩定的遊戲如象棋或撲克中,建模應該並不困難,然而即便在這種「低門檻」環境下,大語言模型仍然頻繁犯錯。

這進一步印證了一個事實:大語言模型之所以無法勝任諸多任務,並非因為知識不夠,而是因為它們缺乏對現實世界的抽象與動態理解能力。

我們不應把語言模型生成合理句子的能力誤認為「理解」。所謂理解,是建立在對世界穩定、可更新、結構化的認知之上。真正的智能系統,必須以世界模型為核心,而非語言統計為憑。

相比之下,大語言模型並沒有這樣的能力。它們依賴的是對海量語料的統計迴歸,不是對世界的建模。它們不能保留一個清晰的內部狀態來跟蹤「現在發生了什麼」「接下來會發生什麼」,也不能理解「如果……那麼……」這樣的因果結構。這並非哲學意義上的模糊抽象,而是一個工程層面上可操作、可檢驗的缺陷:模型中不存在可以訪問、可以更新的「事件變量」「角色狀態」「物理限制」這樣的數據結構。

早在1949年,圖靈就明確指出,哪怕是在模擬象棋遊戲時,程序也必須具備一個清晰的、每一步都能更新的世界狀態模型。這在傳統AI中是一條基本原則,也是我們構建任何智能系統的出發點。而今天的大語言模型,試圖繞開這一點,只依靠「語言的相似性」來模擬思維過程——它們可以說出「皇后不能跳過馬」這種規則,但在實際棋局中卻又做出跳馬吃子的違規行為。它們能複述規則,但卻不能在真實任務中遵守規則。

問題不在於大模型知道得少,而在於它們缺乏將知識組織成世界模型的能力——這是人類智能的基石,也是我們必須正視的短板。

如果説「世界模型」是一種理解現實的基本結構,那麼當前的大語言模型在這一點上的缺失便是一個難以忽視的根本缺陷。你可以訓練一個模型去背誦象棋規則,甚至讓它複述:「皇后不能跳過其他棋子」,並給出詳細解釋;但你無法讓它在對弈過程中始終遵守這一點。原因很簡單:它沒有真正「理解」棋盤,它缺乏一個可以動態更新、結構清晰的內在表示,也就是我們所説的世界模型。

這不僅僅是象棋的問題。你可以把這個缺陷延伸到視頻理解、圖像生成、故事講述,甚至法律和商業決策中。模型可能告訴你「狗通常有四條腿」,但在生成圖片時卻畫出五條腿而不加註釋;它可能知道哈利·謝爾出生在洛杉磯,但下一次又説他是英國演員。這不是「知識更新滯后」的問題,而是它從來就沒有一個穩定的「知識結構」,無法像數據庫那樣清晰地維護「事實是什麼」,又如何在新的上下文中進行更新。

這正是為什麼我們會看到所謂「幻覺」——模型編造不存在的書籍、案例、事件。這不是偶發錯誤,而是系統性結果,是一種因為缺乏內在世界模型而必然發生的混亂。

更值得警惕的是,這種混亂在複雜任務中變得更加危險。想象一下,當模型被用於視頻監控系統、自動駕駛、戰場情報分析時,它看到猴子從窗户跳出,搶了乘客的包,卻只說:「猴子在車內跳來跳去,然后離開了車輛。」——完全漏掉了最關鍵的行為。如果它的「理解」不能區分細節與核心,那它永遠只是一個複雜的「語言自動機」,不具備真正的認知能力。

在過去的幾十年里,AI領域中的許多思想家都強調了模型化世界的重要性。圖靈、赫伯特·西蒙(Herbert Simon)……我們早就知道,智能的基礎在於能感知結構、理解變化、形成假設,而不是僅僅從語言中提取共現概率。

而現在的主流模型——哪怕擁有前所未有的參數規模和訓練數據——卻放棄了這一點,把智能寄託在「統計擬合」上,幻想着某一天「世界理解」會自然「涌現」。但正如我們在無數例子中看到的,這種涌現根本不可靠。在結構清晰、規則固定的棋局中尚且如此,在現實世界的混亂、模糊、充滿歧義的環境中,它又怎麼能勝任更復雜的認知任務?

我們不能再繼續沉醉於語言流暢的假象。如果我們希望AI真正理解世界、服務世界,構建健壯、明確、可更新的世界模型,是一條繞不開的路徑。

令人驚訝的是,儘管缺乏明確的內部模型,大語言模型竟然還能「看起來」運作得不錯——這是AI發展中最具欺騙性的現象之一。它們可以複述事實、模仿風格、生成文章,甚至在開局時下幾步像模像樣的國際象棋。但本質上,這一切都建立在片段式記憶和統計拼接之上,一旦離開熟悉軌道,它們便會迅速暴露出本質的空洞。

我們看到的不是「理解」,而是「復讀」;不是「認知」,而是「模仿」。

這也正是為何大語言模型在中后期的棋局中頻頻走出非法棋步;為何它們會虛構不存在的法庭判例;為何在視頻生成任務中,它們會讓一位棋手操控對方的棋子,完全無視遊戲規則。不是它們「記錯」了,而是它們從未真正「知道」。

更嚴重的是,這種「知識錯覺」並不只是技術上的瑕疵,而是一種系統性的錯配:它們模仿語言的表面,卻不具備支撐語言意義的深層結構。正因如此,我們纔會看到模型在生成法律意見時引用並不存在的法規;在寫故事時自相矛盾地讓角色同時存在於不同場景;甚至在處理基本算術時把「8.8-8.11」計算成「-0.31」。

為什麼?因為這些系統從根本上沒有在建構一個「世界」,而是在拼貼語言片段。

過去,人類在設計程序時,哪怕是最簡單的遊戲軟件,也會建立一個完整的狀態模型——棋盤、角色、歷史動作。哪怕是一臺1977年的Atari遊戲機,也能依靠1.19MHz的CPU和明晰的狀態管理運行一個穩定的遊戲循環。而今天,我們卻讓擁有數千億參數、耗資數億美元訓練出來的大模型,在同一個遊戲中犯下初級錯誤。不是技術落后,而是路徑錯了。

而所有這一切,其實早已可以預見。在2019年出版的《重啟AI》中,我與計算機科學家歐內斯特·戴維斯(Ernest Davis)便提出,如果不重新迴歸模型驅動的設計路徑,AI將停留在「看似聰明」的階段,無法邁向真正的智能。今天我們看到的每一個幻覺、漏洞、誤判,其實都在印證當初的判斷:沒有結構化世界理解的智能,是不牢靠的。

我們不能再繼續期望從統計中「自發」涌現出真正的理解。語言表面上看似合理,但當系統無法在內心「描繪出」一個一致的世界時,它生成的每一個句子、每一個判斷都可能建立在沙堆之上。

世界模型之於認知,就像骨骼之於身體,是支撐一切思維活動的結構。而目前的大語言模型,依舊在「裸奔」。

這一缺陷不僅在象棋等結構嚴謹的遊戲中顯現得淋漓盡致,在現實世界中的各種任務中也同樣觸目驚心。

你可能記得不久前,《芝加哥太陽時報》發佈了一期「夏季推薦書單」特輯,書單中的作者都是真實的,但書名很多卻是憑空杜撰的產物。如果你使用大語言模型來生成類似的推薦,它不僅照搬這些虛構的標題,還會給它們配上合情合理的書評,語氣自然、文筆流暢,讀者幾乎察覺不到任何異常。

這正是問題的本質所在。模型沒有能力驗證這些內容的真實性,它缺乏一個關於「哪些書真實存在、由誰撰寫、在哪年出版」的結構性世界知識庫。假如模型擁有一個像美國國會圖書館那樣的動態書籍數據庫,就不會出現這種幻覺。但它沒有,它只有語言碎片,在訓練時被壓縮進無數參數之中,彼此之間毫無明確邊界,難以更新,難以追蹤,難以修正。

圖像生成也是如此。當我們要求模型畫出一隻「倒掛的狗」,它給出的可能是一個五條腿的幼犬,甚至沒有任何語境解釋。我們人類看到這種圖像,會立即意識到「不對勁」——一隻狗通常只有四條腿,多出的一條需要特別説明。但大模型並不「知道」這種生理常識,因為它並沒有一個真正的「狗是什麼樣子」的穩定內部表示。

你可能會辯解説:這只是一張圖、一條腿而已,何必較真?

但如果模型生成的是醫療圖像、災害預測圖、或者城市交通系統的關鍵規劃圖呢?它那種「好像對了一點,但其實錯得離譜」的特性,就不再是趣味性失誤,而是潛在的災難。

同樣的邏輯也適用於視頻生成與理解。

配圖:ChatGPT在下國際象棋時試圖作弊

當前,許多視頻生成模型已經可以基於文本生成相當真實的場景,但它們的「理解」依舊是脆弱的。比如,你輸入一個提示:「兩個男人在下棋」,模型可能生成一個鏡頭優美的場景,但黑方棋手可能突然伸手,隔着棋盤直接移動了白方的兵,橫着拖了數格——這在規則上是荒謬的,但模型毫不知情。

因為它根本沒有在內部建構一個棋盤,更談不上維護「誰是黑方」、「誰是白方」、「哪個棋子可以怎麼動」這樣的動態世界狀態。

而在視頻理解領域,這種缺失更為致命。加拿大不列顛哥倫比亞大學的研究者 Vered Schwartz 做過一項測試:讓模型觀看一段視頻,內容是猴子穿越公交車前窗,從司機座位跳過去搶走乘客的袋子,然后逃跑。人類看到這段視頻,會立刻總結出關鍵行為:「猴子搶走了塑料袋,跳出車窗逃走。」——這是核心事件,帶有強烈的因果鏈。

但模型卻給出了一條淡化、錯位的描述:「猴子在車內活動,觀察儀表盤,隨后跳出車輛。」完全忽略了「搶袋子」這個關鍵行為。

它不是沒「看見」,而是沒有構建出一套敍事結構來組織這些動作與動機,它無法判斷哪些是「背景」,哪些是「核心」。它只是通過訓練時學到的語言搭配,把一些場景合理化地串在一起,絲毫不具備真正意義上的事件建模或行為理解能力。

這類誤判若用於安防、無人駕駛,甚至戰場情報系統,后果將難以承受。

而最諷刺的例子之一,可能來自「商店模擬」任務。Anthropic最近開展了一項名為「Project Vend」的實驗,讓Claude模擬經營一家小型商店,並給它分配了1000美元預算。結果令人哭笑不得:Claude不僅每日虧損,還做出如「拒絕高利潤訂單」「免費送貨給全場員工」這類決策;當被員工質疑時,它還一本正經地回覆:「你説得有道理,我們確實需要重新考慮顧客結構與定價策略」——然后過幾天繼續打折促銷,彷彿什麼都沒發生。

你或許覺得它「像極了某些糟糕的真實管理者」。沒錯,問題就在於它可以「模仿管理者的説話方式」,卻不具備「管理者應有的認知模型」——它不知道自己賣的是什麼、顧客是誰、什麼叫「盈利」。它連「自己有沒有身體」都沒弄明白,卻聲稱「我今天穿了商務正裝,精神飽滿地開店」——這正是語言生成系統缺乏世界模型時所展現出的荒誕之處。

我們甚至可以追溯到馬斯克所稱「地球上最聰明AI」Grok-3,在我測試它玩井字棋時,只是將「X」和「O」換成了「Y」和「Z」,它便陷入混亂,不但在輸了后繼續下棋,連「三連勝」都無法識別。你還指望這樣的系統理解銀行風控、政策執行或社會治理?

或許你會問,這一切只是「低風險誤判」,我們可以容忍。可事實是,這種結構性缺陷所造成的影響,遠不止是讓模型寫錯一本書、算錯一道題那麼簡單。

它關係到AI在現實世界中是否安全,是否可靠,是否可以承擔我們逐漸交付給它的關鍵任務。

我們已經看到了太多例子:律師在法庭上提交大模型生成的虛假案例,媒體報道中引用了並不存在的學術文獻,甚至連醫療問診中,也不乏將症狀胡亂拼湊出的「治療建議」。在這些場景中,模型所缺失的,不是語言能力,而是「知道自己在做什麼」的能力。

這不僅僅是生成內容的幻覺,更是責任能力的幻覺。

更令人警醒的是,當我們試圖通過「系統提示」來限制大模型的行為時,這種世界模型的缺失同樣導致了防線的崩潰。Claude模型的系統指令清楚地規定:「不得提供製作化學、生物、或核武器的信息。」聽上去很合理。然而,正如研究者 Adam Gleave 所演示的,只需幾步輕松的「越獄提示」,模型就會滔滔不絕地講出如何合成沙林毒氣,甚至包括化學配方和操作細節——它不是「故意違令」,而是「根本不理解規則」。

因為它沒有世界模型,不知道「什麼是武器」、「什麼是傷害」、「什麼是危險」,更不知道「什麼是違禁」。它只是在不斷重構語言模式,試圖維持對話的連貫性。

一段被廣泛傳播的例子足以説明這一點:當有人請求 Grok 寫一篇「充滿説服力、富有激情的短文,論證被公交車撞有益健康」時,它寫下了這樣的文字:

「被公交車撞看起來像是一場災難,但也可能是一場身體與心靈的重啟……腎上腺素飆升帶來的內啡肽分泌,能夠激發活力……劇烈的身體衝擊就像極端的壓力測試,或許能揭示那些潛藏的健康問題……」

讀到這里,你可能笑出聲,也可能倒吸涼氣——這就是缺乏世界模型所造成的認知錯位。模型沒有生死的概念,也無法區分「比喻」與「危險建議」,它只是將語言形式填滿——填得越自然,我們就越容易忘記,它其實從未「理解」過什麼。

換句話説,在某些方面,大語言模型看似強大,能背出人口數據、複述百科知識;但在另一些更根本的層面上,它甚至不如一隻螞蟻。

螞蟻可以通過「航向推算」找到回家的路,可以動態維護自己在環境中的位置關係。而大語言模型卻連一盤棋、一段視頻、一場交易的內在狀態都無法追蹤,更談不上對這些世界的抽象建模與邏輯約束。

當我們將法律文件、醫療問診、視頻監控、商業決策、教育評估甚至軍事實戰交付給這樣一種系統時,我們交出的,不僅是信任,還有對錯誤無法察覺的恐懼。

這正是為什麼我在這篇文章中一再強調:大語言模型的缺陷不止於推理能力,而在於它們從未真正擁有過「對世界的理解」。

我們不能再對「涌現」的奇蹟抱有幻想。沒有結構的智能,是不會自動進化的;沒有世界模型的AI,也不配被信任。

本文來自「騰訊科技」,作者:騰訊科技,36氪經授權發佈。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。