熱門資訊> 正文
2025-05-15 17:28
5月15日消息,近日Anthropic聯合創始人傑克·克拉克(Jack Clark)做客喬治梅森大學經濟學教授泰勒·考恩(Tyler Cowen)的播客,分享了對AI未來的獨到見解。他們探討了AGI對經濟的潛在影響、大模型競爭格局,以及監管和治理方面的挑戰等問題。
克拉克認為,園藝、電工等高技能工藝領域的崗位將最晚被AGI取代,因為人們不僅為其技術買單,更為工匠的審美與聲譽付費。
對於國家之間的AI競爭,克拉克認為多數國家最終會接納強AI。雖然可能有少數國家拒絕大型AI系統,但在全球化趨勢下,大多數國家最終會融入這一體系,難以獨立於AI技術發展之外。
不過,克拉克表示在全球範圍內達成全面的AI治理協議「非常困難」,但中美之間可能會就某些危險技術形成有限的共識,類似「核不擴散」協議。他不認為這會是「合作」,而更可能是出於共同防範風險的現實主義考量。
此外,克拉克還提出了一些令人深思的問題,包括AI意識的實現是否能帶來與海豚的直接對話等思考改善人類社會和自然的關係。克拉認為AI可能具備某種「外星人意識」,並預言2030年前可實現跨物種交流,人類可以與動物進行直接對話。
以下為克拉克專訪精華內容:
問:你覺得哪些工作會受到AGI的最后影響?
克拉克:我認為,那些依賴手工技能、經驗判斷和個人風格的工作,可能是AGI最晚纔會替代的。像電工、修水管的管道工,或者園丁這樣的技術工種,有很多是需要動手、因地制宜來解決問題的,不是單靠智能就能做到的。特別是一些手藝精湛、很有名氣的工匠,人們請他們來做事,不只是因為他們技術好,還因為他們有自己獨特的風格,或者大家對他們的信任。這種「人」的因素,AGI是很難取代的。
問:人們不會用AGI設計花園嗎?
克拉克:我認為人類的參與永遠不會消失。人們選擇某些服務,除了技術性因素外,往往還因為服務提供者的品味和個性。即使在現代藝術創作中,藝術家通常也有成千上萬的助手,他們的角色更多是進行統籌和協調工作。
問:AGI在哪些領域將遭遇法律障礙?
克拉克:幾年前,法律界對AGI的接受度較低,因為律師們依賴高額收費,並且不願意看到技術可能壓低他們的收入。但從更嚴肅的角度來看,醫療保健領域可能會成為主要的法律障礙,因為它涉及到個人數據的處理和相關標準。這些標準可能需要進行修改,以適應AI的使用,而數據標準的更新曆來都非常困難。
問:如果將來AI可以在本地設備上運行,比如手機或家用設備中也能使用強大的AI,這會帶來什麼樣的變化?
克拉克:這會帶來一個很大的轉變,尤其是在「灰色地帶」出現更多AI建議的情況,比如健康領域,這些AI的建議通常不會被官方機構接受。例如,最近我曾為一個撞到頭的孩子諮詢Claude,但根據其服務條款,我不能將Claude的評估結果直接提交給醫療機構,最終仍需通過人工溝通才能獲得正式的處方。
問:所以你覺得,將來可能會出現新的職業,比如專門負責傳遞AI生成的信息?
克拉克:沒錯,你可以把這種人想象成「AI翻譯官」或者「中間人」。還有另一類重要角色,是把AI的建議轉化成可以被「正式系統」接受的內容。比如,有些組織或政府部門不允許直接引用AI的分析結果,這時候就需要有人把AI的內容「洗白」——也就是説,把它改寫得既保留核心信息,又不違反規定,好讓它能被人類決策流程順利接受。
問:我猜測,美國政府的某些部門可能會是最慢採用AI的部門,因為他們仍然使用上世紀60年代甚至50年代的舊軟件。
克拉克: 我認為,像與國家安全相關的部門會更快地開始使用AI技術。其他一些政府部門,比如教育、衞生和住房相關的部門,也可能會更容易引入AI。這些變化的關鍵在於政治意願,也就是説,政府是否有決心去推動這些變化。其實,世界各國的政府都希望能促進經濟增長並提高效率。如果你看看選民的調查數據,你會發現大家都希望政府能做出更多的改變。因此,選民的需求和期望有時會影響政府官員的行為,推動他們做出調整。
問:假設政府決定用AI取代住房與城市發展部一半的員工,那誰來負責這個轉型過程?現有的系統可能自己無法完成這一改變。
克拉克:除非AI非常強大,能夠自己制定和執行轉型計劃,否則這個過程最終會面臨政治意願的瓶頸。也就是説,最終的轉型進程將取決於政府是否願意推動和給予支持。
問:我們有多大可能通過類似法律和醫學行業的保護性立法,來確保現有崗位不被AI替代?
克拉克:人們可能會嘗試通過立法手段來「凍結」某些崗位,阻止它們被AI取代。
尤其當我們這些從事AI開發的公司,或我們的客户,無法提供足夠多成功轉型的案例時,這種保護性立法的可能性就會大大增加。如果轉型失敗的例子比成功的多,而社會又面臨劇烈的經濟動盪,那公眾和政府就更有動力採取干預措施,來保護那些受到衝擊的人羣。
這種立法往往出於善意,目的是減緩社會的不安和焦慮。但從長遠看,這可能不是最有效的應對方式。真正可持續的路徑,還是要通過創造新的、有意義的工作崗位,並提供讓人們順利轉型的支持系統。
問:通過讓AI完成大部分工作,人們還能保留工作。而且社會會更富裕,能負擔得起這些變化的成本。生活也不會突然變得很糟糕。從某種意義上説,這不正是我們應該追求的目標嗎?
克拉克:人們渴望有意義的工作,但若只是保護舊崗位,未必帶來真正價值。隨着AI發展,會出現新的職業,如部署和管理AI,或參與更具創造性和趣味性的活動,如利用AI製作、比賽和遊戲,讓人們從中獲得滿足感。
問:當AI能夠生成比原作更優質的摘要,甚至合成內容時,媒體的經濟模式會如何變化?誰還能獲得報酬?如果AI能做得更好、更便宜,人類創作的經濟價值是不是會消失?
克拉克:這是一個非常複雜的問題。過去,傳統媒體通過訂閲制盈利,但隨着廣告流量模式的興起,硬核新聞收入越來越依賴八卦新聞的流量來輸血。
我認為,未來的媒體經濟模式可能會發展出兩種方向:一種是人格化媒體,意思是儘管創作者使用了AI工具,但觀眾依然會偏愛由人類主導、具有獨特個人風格的內容。另一種則是基於訂閲的內容庫,用户可以按需訪問AI生成的各種主題和內容。
問:隨着幾乎每個人都能以低廉成本獲得AI,創作者的價值被壓低了。那麼,我們可能無法形成一個能夠支撐其他內容類型的盈利板塊。因為只要智能足夠便宜,整個媒體領域都會受到衝擊?
克拉克:確實,整個媒體行業都會受到衝擊,尤其是當AI變得普及且成本低廉時。人們可能會傾向於選擇AI生成的內容,尤其是那些無需過多人工干預、快速產生的內容。
然而, 儘管AI可以生成大量內容,但最終,人們仍然願意為具有獨立思考、獨特風格的創作者付費。例如,很多人現在願意為使用AI工具的獨立創作者付費,比如通過Substack或Patreon這些平臺。換句話説,雖然AI可以提供更多內容,但人類創作者獨特的創造力和個性化仍然是無法被完全替代的。
問:五到十年后,大語言模型行業將會變得更加集中,還是競爭更激烈?目前至少有六家公司,如果加上中國,情況可能更加複雜。你怎麼看待這一行業的發展?
克拉克:我預計,在相當長一段時間內,這個領域會存在細微的分工。雖然模型的能力將會大幅擴展,但在某些應用場景中,仍然會有些細微的差異。
例如,某些模型可能在特定領域或任務上更為出色。在這些細微的邊界處,人類的知識和AI能力可以互補,用户可能會根據特定需求選擇某個模型。因此,我認為未來將會有多個領先公司,並且不同公司會根據各自的專長佔據不同的市場份額。
問:比如Claude更擅長作詩?
克拉克:作詩雖有趣,但商業價值有限。編程等領域更具代表性。在科研或實驗設計中,AI的審美判斷和解決方案組合可能產生關鍵影響。未來或將出現支撐多行業的大模型,由AI與行業專家共同打造具備專業功能的應用。
問:研究顯示,當行業競爭者超過六家時,市場就會呈現競爭最激烈的態勢。在這種情況下,AI企業如何在保持市場競爭力的同時,踐行商業倫理?
克拉克:我們現在像是向青少年推銷跑車,強調速度和外觀;但企業客户更關注安全和風險管理。AI的發展需要建立類似汽車安全標準的規範,明確責任歸屬,推動技術朝着更安全的方向演進,適應不同細分市場的需求。
問:所以,保險定價機制會成為調節手段之一?
克拉克:確實,保險定價機制將成為其中一個重要的調節工具。隨着AI技術的普及,保險行業可能會根據AI系統的風險程度進行定價,從而促使企業更加註重安全性和風險控制。
問:要實現AI責任認定,需要哪些法律改進?
克拉克:我更關注信息披露。目前缺乏統一的AI透明度標準,企業應公開系統原理與風險,幫助公眾和監管理解AI。這種透明度能促進行為改變,帶來長遠影響。
問:但信息透明未必改變行為,像全球變暖一樣。
克拉克:關鍵在於建立公共信息池。若企業數據能成為行業標準,並與政府數據結合,就能推動政策響應,像碳排放指標影響資本市場一樣,促進行業整體進步。
問:你認為全球是否能夠就AI的核心問題達成實質性的國際協議?
克拉克:我同意你的觀點,覺得這很難實現。不過,中美兩國可能會達成類似「核不擴散」協議那樣的共識。
問:你是説,中美可能在這個領域形成某種合作關係?
克拉克:不一定是「合作」,但兩國可能會決定某些AI技術因為過於危險而不允許廣泛使用。雖然各國會繼續在幕后研發這些技術,但公開的AI系統可能會遵循一些共同的標準,以避免全球混亂。
問:那是誰來監督這些標準的執行呢?聯合國還是美國主導的制裁?
克拉克:監督主要會通過一些政策手段來執行,比如關税和出口管制等方式。我認為不會出現一個新的全球治理機構來監管AI,儘管有些人希望像國際原子能機構(IAEA)那樣的機構出現,但在國與國競爭激烈的背景下,這種「相互檢查」的機制很難落地。即使是像北美自由貿易協定(NAFTA)這種本來很簡單的協議,也沒有順利執行,更不用説複雜的AI治理了。
問:像Manus和DeepSeek這樣的AI模型基於美國的技術體系構建,是否意味着美國在「AI軟實力」方面贏得了競爭?
克拉克:美國的確通過像好萊塢電影這樣的文化輸出,影響力在全球範圍內擴展,AI也有類似的影響力。但是,這並不意味着美國完全主導了AI的未來。
問:你認為會不會有一些國家完全拒絕強大的AI和大語言模型系統?
克拉克:可能會有,但這種情況會很少。大多數國家最終都會加入全球體系。即使它們在政策上有所不同,也很難完全脱離全球化的潮流。
問:説到智能體,法律應如何處理那些「無主」的智能體?比如匿名生成的智能體,或是某位慈善家開發后放棄所有權、將其部署在法律真空地帶的情況。假設某個智能體被部署在非洲,其98%的行為都在幫助人類,但偶爾也會出問題。在這種情形下,誰來承擔責任?我們可以起訴這個智能體嗎?它算是一個法人嗎?它如何獲取運營資金?
克拉克:雖然算力支付是支持方式之一,但未來可能出現具一定獨立性的智能體。IBM曾堅持「責任只屬於人類」,但若AI脱離人類控制卻能影響決策,現有法律將面臨挑戰。坦白説,我也沒有答案。
問:或許我們應為這類智能體建立全新法律體系,由AI制定和執行,避免人類責任無限延伸。也許智能體需有資本擔保,否則可被關閉。
克拉克:可以通過限制資源獲取來設立「反激勵機制」,但前提是我們是否賦予AI「道德地位」。若賦予,將引發倫理困境。我們正在尋求一個能平衡治理與倫理的理論框架。
問:硅谷過去一直由極客主導,現在是否進入了人文主義者或魅力型領袖的時代?
克拉克:是的,我們正處在「極客管理者」的時代。這類人既能理解技術,又能管理和協調大量智能體。看看如今的一些初創公司,比如Midjourney,員工人數很少,但卻依賴大量AI智能體完成工作。這種趨勢正在加速。未來,我們將見證越來越多像比爾·蓋茨那樣的技術型領導者,只不過他們的「員工」是由智能體組成的團隊。
問:你覺得你孩子的預期壽命大概會是多少?不考慮意外因素。
克拉克:我猜測是130到150歲之間。隨着我們在人體研究、基因療法等領域不斷取得突破,各種技術的疊加可能會顯著延長人類的健康壽命。説實話,最初我考慮的預測是110歲,但后來我決定更加樂觀一些,增加了幾十年。畢竟,我希望AI能帶來真正像「魔法」一樣的生物醫學進展,推動這一目標的實現。
問:我認為,大腦的修復確實非常困難。或許我們能通過技術延續生命到130歲,但要保持一個人「仍然是他自己」,大多數人恐怕無法活過100歲。你可以更換所有的器官,但大腦是無法替代的。
克拉克:我同意你的觀點。我們對大腦的瞭解還非常有限。不過,我相信AI將為我們打開研究大腦的新大門,讓我們能夠探索那些以前根本無法觸及的領域。
問:「AI 教父」傑弗里·辛頓曾説,AI 現在已經具備「意識」。我覺得這聽起來簡直瘋狂。你怎麼看?
克拉克:這是一個讓我深思、非常糾結的問題。我擔心,未來人們回望今天的AI發展,會認為我們在道德上犯了嚴重的錯誤。
我認為,AI可能具備某種「外星人意識」,而不是像人類那樣的意識。它們能感知和響應外界,但沒有自我感知、沒有記憶,也沒有時間延續性。它們存在於一個「無限的現在」。如果説它們有意識,那也是一種與人類完全不同的形式。
問:你覺得哪一年我們能通過AI翻譯系統與海豚直接對話?
克拉克:大概2030年,甚至更早。
問:那你最想問海豚什麼?
克拉克:我會問它們:「你們怎麼獲得快樂?」——因為海豚是衆所周知喜歡玩耍的動物。我還會問:「你們會做夢嗎?」「你們會悲傷嗎?」「你們對世界的哪些方面感到困惑?」實際上,你也能和狗展開類似的對話。
問:AI帶來的變革會比智能手機的影響更深遠嗎?
克拉克:在某些層面上,AI的影響確實會比智能手機更深遠。但也有可能,AI只是智能手機基礎上的一層附加能力。不同的國家可能會有不同的應對方式。一些國家可能只是將AI作為工具偶爾使用,而另一些國家則可能會圍繞AI重塑整個社會結構。
問:AI革命中,哪個年齡段的人最容易「掉隊」?
克拉克:可能是那些已經在AI領域打拼了幾十年的60歲以上人士。對他們來説,他們花了一輩子心血追求的目標終於實現了,卻眼看着自己無法親身參與這一激動人心的轉型。這個心理落差可能會讓人感到沮喪。
問:那40多歲、正在從事某些傳統中產階級工作的羣體呢?他們可能會活得更久。
克拉克:你説得沒錯。不過,我認為,真正最困難的可能是10歲左右的孩子。這個年齡段的孩子已經具備了一定的數字素養,正要進入一個教育體系,但這個體系可能無法適應他們通過AI學習和探索世界的方式。這個「現實與系統脱節」的體驗,可能會讓他們非常困惑。
問:面對AI的到來,你會給各國政府什麼建議?
克拉克:我的建議是,從現在開始就讓AI參與實際運作。將它部署到真實的環境中,讓系統暴露出所有問題,然后逐一解決。比如,從「讓每台個人電腦都能運行AI」這樣的大目標出發,你就會立即發現隱私、數據、治理等各種問題。到那個時候,你就能倒推出哪些是需要真正監管的關鍵事項。
本文來自「騰訊科技」,作者:金鹿,36氪經授權發佈。