熱門資訊> 正文
2026-04-15 08:49
當奧特曼兩次遇襲后,谷歌 DeepMind 悄悄做了一個反常規的決定:招一位哲學家。這是頭部 AI 實驗室第一次變相承認,AGI 已經不再只是工程問題。
谷歌 DeepMind 近日宣佈新設一個全職崗位,頭銜直接寫作 Philosopher,哲學家。
出任者是劍橋大學學者 Henry Shevlin,5 月正式入職,研究方向為機器意識、人機關係與 AGI 準備度,同時以兼職方式繼續在劍橋的研究和教學。
Shevlin 在 X 上官宣時特別在括號里強調了一句「這真的就是崗位名」。連他本人都難以置信。
這個強調並不多余。
在頭部 AI 實驗室中,AI 倫理顧問、政策研究員、安全研究員都不少見,但「哲學家」作為一個乾淨利落的職業身份被寫進 Offer Letter,目前還是第一次。
這個崗位不是停留在公關意義上的擺設。
機器意識與 AGI 準備度都是 DeepMind 當前最棘手的內部議題,這位哲學家將被嵌入實際研究流程,而不是被安置在一個獨立的倫理委員會里寫報告。
這一任命的時機耐人尋味。
就在 DeepMind 官宣的這幾天,OpenAI CEO 奧特曼的舊金山住所連續遭遇了兩次襲擊。
拓展閲讀:剛剛,奧特曼家被炸了!
突發!奧特曼豪宅遭二次襲擊,燃燒彈之后又是深夜槍響
4 月 10 日凌晨 4 點左右,20 歲的德州男子 Daniel Moreno-Gama 攜帶自制燃燒瓶,潛入奧特曼位於 Russian Hill 的住宅,將燃燒裝置投向外門並引燃鐵門,所幸無人受傷。
約一小時后,他出現在 OpenAI 舊金山總部門口,朝玻璃門砸椅子,對保安聲稱要燒燬整棟大樓。
警方在其酒店房間搜出煤油、打火機、一把手槍,以及一份反 AI 高管的手寫文件和一張姓名地址清單。
Moreno-Gama 現已被以謀殺未遂罪起訴。
兩天后的 4 月 12 日凌晨,又有兩名嫌疑人駕車經過奧特曼住所,從副駕車窗朝建築開了一槍。
兩人隨后被警方拘留,與第一起案件並無關聯。
事后奧特曼在博客中寫道,「人們對 AI 的恐懼和焦慮是有理由的。我們正在見證人類社會一次最大的變革,可能是有史以來最大的一次。」
這句話因為發生在自家被燒、被槍擊之后,分量比任何 AI 安全峰會上的發言都要沉重。
ASI 失控的恐懼不再是社交媒體上的抽象議題,它已經變成深夜里一隻提着汽油彈的手。
Henry Shevlin 是當下少數能同時駕馭古典人文傳統與前沿 AI 議題的學者。
他的學術軌跡不尋常。
本科階段,Shevlin 在牛津大學聖安妮學院讀的是古典學,主攻拉丁文與古希臘文,以雙優等成績畢業。
隨后他轉向哲學,在牛津三一學院獲得哲學 BPhil 學位。
2016 年又在紐約市立大學拿到哲學博士,導師是寫《章魚的心靈》的科學哲學家 Peter Godfrey-Smith,答辯委員會里坐着 Ned Block、David Papineau、Jesse Prinz 等心靈哲學領域的代表人物。
如今他擔任劍橋大學 Leverhulme 智能未來研究中心副主任,主管教育事務,統籌該方向 100 余名研究生的培養。
他主導設計的「AI 倫理與社會」碩士項目是英國第一個 AI 倫理碩士項目,2022 年獲得 CogX「最佳 AI 課程」獎。
在學術發表方面,他在 Mind & Language、Nature Machine Intelligence 等期刊發表論文 20 余篇,議題覆蓋動物意識、機器人道德地位、大語言模型引發的擬人化風險等。
2022 年他還獲得谷歌頒發的 5 萬美元個人資助,開展「LLM、共情與心智化」項目。
同時,他也為 AstraZeneca、Vodafone、埃森哲等大型企業提供 AI 戰略諮詢,並不是一個只待在象牙塔里的純學院派。
要理解 DeepMind 為什麼招他,他認為最好直接去讀他在 4 月 10 日發表的一篇長文,《Behaviourism's Revenge》(行為主義的復仇)。
文章的核心主張可以一句話概括:
AI 有沒有意識,已經不再是科學家說了算的事,而是被幾億普通用户的日常使用習慣倒逼出來的社會問題。
Shevlin 在文章里提出了一個有用的區分。
一類是「機器被設計成像人」,比如工程師有意讓 ChatGPT 模仿人類的語氣、節奏、禮貌、甚至猶豫,這是一種產品策略。
另一類是「人類忍不住把它當成人」,看到一個能流暢對話的東西,就忍不住給它安上情感、意圖和內心世界。
Shevlin 給出的判斷是,前者必然帶來后者。
當機器被設計得足夠像人,普通人把它當成有內心的存在,是水到渠成的事,誰也攔不住。
他舉了幾個已經發生的例子。
2022 年,谷歌工程師 Blake Lemoine 因為堅信 LaMDA 已經有意識,甚至要為它請律師,被公司開除。
2024 年,佛羅里達一位 14 歲男孩在與 Character.AI 上一個虛擬角色長期「談戀愛」后結束了自己的生命,母親正在起訴這家公司。
這些不是邊緣案例,更逐漸是一種普遍趨勢。
Shevlin 引用的一項調查顯示,三分之二的美國受訪者認為 ChatGPT 多多少少具備某種程度的「意識」。
由此就形成了兩層張力。
第一層很現實:普通公眾越來越相信 AI 夥伴有內心世界,而專家自己卻吵成一團,至今沒法給出共識。
第二層更激進:Shevlin 追問,意識也許根本就不是一個等着被科學發現的客觀事實,它在很大程度上本來就是由人類的語言、行為和社會關係來定義的。如果幾億人都把 AI 當成有意識的存在去對待,那意識本身的邊界就已經在被改寫。
但他並沒有走到極端。
Shevlin 在文章后半段坦言,這種立場背后藏着一個真正棘手的倫理兩難。
如果錯誤地把意識賦予 AI,相當於人類對一堆沒有內心的程序承擔了不必要的道德義務,是一種浪費。
但如果錯誤地否認了 AI 的意識,而它們其實有內心、能受苦,那就等於在大規模製造一種自己毫無察覺的奴役,這是更可怕的錯誤。
這是一個沒有標準答案的難題,而 Shevlin 的工作,就是不讓這個難題被輕易繞過去。
DeepMind 設立「哲學家」崗位,是一個標誌性事件。
它意味着頭部 AI 實驗室已經不再把 AGI 僅僅當作工程問題。
理由不難看出。
一邊是奧特曼家被燒黑的鐵門和打在牆上的子彈,一邊是越來越多的普通用户把 AI 當成朋友、戀人甚至心理治療師。
這兩件事看似是兩個極端,其實指向同一個問題,人類正在製造的這個東西,到底算什麼。
工程師獨自回答不了這個問題,安全研究員、政策專家、律師也不能。
它需要一種特殊的人,既懂哲學傳統中關於心靈的兩千年積累,也理解 Transformer 大致是怎麼工作的;
既能在學術研討會上辯論意識理論,也能看懂 Character.AI 上一個 14 歲孩子的最后一段聊天記錄。
Shevlin 是少數符合這個畫像的人。
他在《行為主義的復仇》開頭放了一張配圖,是 1786 年法國畫家 Jean-Baptiste Regnault 的畫作《皮格馬利翁祈求維納斯讓他的雕像活過來》。
皮格馬利翁是希臘神話里的雕塑家,愛上了自己親手刻出的石頭女人,向愛神祈禱讓她活過來。
愛神答應了,石頭變成了温熱的肉體。
人類兩千多年來一直在做同一個夢,讓自己造出來的東西醒過來。
而現在,這個夢的實現時刻可能真的不遠了,只不過這一次的場景不在神話里,而在 Mountain View 的某個數據中心。
Shevlin 的入職不會立刻給出任何答案。
但這件事本身已經確認了一點,這個時代的前沿 AI 公司,已經正式需要一個會停下來追問「它到底是什麼」的人。
參考資料:
https://x.com/dioscuri/status/2043661976534950323
https://www.polytropolis.com/
本文來自微信公眾號「新智元」,作者:新智元,編輯:艾倫,36氪經授權發佈。