繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

全文|《AI智能體的崛起》作者佩塔爾·拉達尼列夫:AI或縮小數字鴻溝,全球共識是治理關鍵

2025-10-17 12:22

專題:2025可持續全球領導者大會&首屆綠色產業與可持續消費博覽會

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

  2025可持續全球領導者大會於10月16日-18日在上海市黃浦區世博園區召開。

  《AI智能體的崛起》作者,牛津大學計算機科學系專業碩士課程導師,艾倫·圖靈研究所研究員佩塔爾·拉達尼列夫(PetarRadanliev)出席2025可持續全球領導者大會並主旨演講。

  「AI既能成為縮小全球數字鴻溝的橋樑——讓非洲地區獲取頂尖知識,也可能因技術壟斷加劇不平等,而決定其走向的,在於能否建立全球統一的AI治理標準。」在演講中,佩塔爾・拉丹利耶夫將AI治理與全球發展公平性結合,提出了極具現實意義的觀點。

  拉丹利耶夫認為,AI的技術特性賦予了它平衡全球發展的潛力。一方面,AI可整合全世界教授的知識,通過技術手段輸送到非洲等發展中地區,讓資源匱乏地區獲得平等的學習與發展機會;另一方面,若富裕國家壟斷AI技術,限制貧窮國家的訪問權限,將進一步拉大數字鴻溝。這種矛盾的背后,是當前全球AI治理缺乏共識的現狀——地緣政治競爭加劇,「誰控制AI,誰就控制世界」的認知導致技術路線分化,阻礙了統一標準的建立。

  他提出,要打破這一僵局,需先聚焦「易達成共識的領域」,而「透明度」與「安全性」正是關鍵切入點。例如,建立「AI物料清單」,像列明廚房食材一樣明確AI的數據元素與來源,既能保障技術透明,也能讓各國在數據安全上找到合作基礎;同時,借鑑2012年「上海共識」的成功經驗,推動各國在AI安全防護、漏洞檢測等領域協同發力,逐步構建全球治理框架。

  拉丹利耶夫特別強調,人類需在AI發展中保持主導權。他以「女士殺死機器人」的象徵圖像為例,指出AI需要「安全閥」,通過人類參與監督、建立偏見消除機制,避免技術失控。他在其著作《AI智能體的崛起》中詳細闡述了這些理念,同時呼籲全球企業、國家摒棄「技術壟斷」思維,以合作代替對抗——只有讓AI成為全人類的共同工具,才能真正發揮其縮小數字鴻溝、推動全球可持續發展的價值。

  2025可持續全球領導者大會由世界綠色設計組織(WGDO)與新浪集團聯合主辦,國際財務報告準則基金會(IFRSFoundation)北京辦公室協辦,新浪財經與世界綠色設計組織北京代表處承辦,上海市黃浦區人民政府支持。大會以「攜手應對挑戰:全球行動、創新與可持續增長」為核心主題,匯聚全球智慧力量,共探可持續發展新路徑,為全球可持續治理注入澎湃的「中國動能」。

  本屆可持續大會在以往四屆「ESG全球領導者大會」的基礎上進一步升級!嘉賓陣容強大,可持續大會組委會邀請約500位中外重磅嘉賓,其中約100位為海外嘉賓,不僅有政要、前政要、國際組織的代表,還包括了諾貝爾獎得主、圖靈獎得主、全球500強企業負責人等國際頂尖學者與業界領軍代表。本屆大會將圍繞近50個議題展開深入研討,議題涵蓋能源與「雙碳」、綠色金融、可持續消費、科技與公益等細分領域。

  以下是發言全文

  佩塔爾·拉丹利耶夫:我們聽到了非常有意思的一些話題,還有一些很重要的演講。我今天演講的話題是技術的本質。我會講到AI最大的問題是什麼?我也會給大家提出相應的解決方案。   

  我將用不那麼技術的詞來解釋人工智能,到底問題是什麼?在2017年,我們有整體的架構,2018年第一次GPT模型橫空出世。在一個線上的數據庫當中就有1600多個模型,每個人都可以把這些模型使用起來,達到不同的目的。我們無法讓這些模型四處亂走,更重要的是AI的治理和安全。我們需要有更好的治理和管理,如果你不用AI的話,你的公司也會受損,你的國家也會有負面經濟的發展。如果它沒有這麼大的説服力的話,講一個例子。

  提到科學,新葯研發也是基於AI的方法,我們覺得我們可以解決這些問題,解決癌症的問題,如果用AI能解決一個疾病,絕大部分人會同意持續地使用AI,還有經濟發展、社會的推進的例子。比如在倫敦出租車駕駛員兩三年前會説不可能有AI替代我,但是可以發現現在很多自動駕駛已經開得像人一樣好了,雖然對於出租車司機來説不是很好,我過去10~15年在牛津任教,在那里做講師。從劍橋、帝國理工這些都是世界上最頂尖的學府。我學的所有東西都不比AI做的東西,AI可以比一個更好的、最好的老師得到的知識更好。老師也要適應到底如何在AI時代適應,不適應就會消亡。適應的過程中,很多青年人有各種各樣的黑客技術,16歲的年輕人可能會到暗網,比如有假的GPT或者詐騙GPT,可能會有更高的成功率。實際上有很多暗黑的事件因此而猖獗,想象一下生成式的AI系統可能有一千多個不同的機構,比如365機構可能會給你帶來各種各樣的錯誤,可能會帶來系統性的崩潰,這就是AI幻覺帶來的問題,我們要去治理和管理AI。

  很多公司部想治理,因為關於發展和開發,更容易開發AI,而不要執行現在的安全。我們要在一開始就去執行,我們到底如何説服公司採用安全唯一的方法,這里講到信任。現在的客户不信任我們的模型,因此我們會喪失這個業務。

  關於AI下一個階段是什麼?現在很多公司都在用這個模型,如PPT所示這個芯片也是在微軟開發的,是完全基於AI的模型。現在的AI和以后的AI有什麼差距?現在的AI僅僅是一個操作系統當中的功能,還要自己操作,以后的AI就完全變成了一個操作系統。現在的特色和以后的特色有什麼區別?看一下這三個重點:提升實時地處理、提升範圍、提升安全性和隱私性。這就是我們的雲系統,我們無法無線地擴張或者無線地時間處理。主要的趨勢是希望有一個新的AI,以及整體的機器模型等等。很多都是基於我們直接的邏輯,像《星戰》這樣的電影,我們現在把這兩個進行結合,帶來更好的AI。

  另外,我們期待量子AI,量子計算機在中國有,在全球都有,在倫敦也有,它非常強大。我們無法帶來一些量化的改進和問題的解決,如果擴展到5~15年的時間,我們會有量子計算機,它會在哪里?它不會再你的筆記本和手機當中,它會基於整體的大數據處理中心,所有數據處理的中心都在雲上了。我們現在把所謂的中心化架構越來越多地變成中心化的系統。

  關於安全性還有一個問題,如果有一個故障就會全部故障。從紅隊和藍隊來看,在紅隊會用模型進行博弈。我們也在開發一些不同的黑客技術,看一下他們到底怎麼操作。我們找到了漏洞,打補丁,這就是我們現在做的方式,以后不會有這樣的選項了,我們要變成一個預測和管理、修復,一旦你知道AI的邏輯,如果邏輯錯了,你要重新訓練模型。藍隊就是這些建房子的人,紅隊這些小偷不會從主門進來,因為他們知道整體的安全系統在哪里,他們會在幕后找漏洞,這不是紅隊的考慮點,到底它會變成什麼?實際上入侵者不從大門進來,它已經躲着了,如果他們入侵了,我們要重建我們的城堡。

  如PPT所示是現在十個最關鍵的人工智能和人工智能系統的威脅,很多人已經看到這些威脅了,比如數據重度、系統性問題等等,最大的問題就是最后一個問題,現在的睡眠智能體,比如它會影響到實時的處理、RDI等等,有些人會把睡眠智能體植入進去,這並不是第一次,現在有非常高的系統。這個睡眠智能體前五年可能你非常滿意,一切都如常運轉,但是后面十年會植入到你的GPS中,醫院當中,在接下來15年中一切都基於你的智能體,你的安全也依賴於整個系統。這個智能體多年都不會檢測到,我們已經開始對紅隊進行測試了,如果檢測到這些惡意的睡眠智能體,我們就會對它進行清除。

  這里還講到Transformer的情況。AI能夠生成這種睡眠智能體,會導致一些出錯,但它並不由任何人實施的,它的出生AI不能檢測到,甚至AI都不知道自己做了錯的事情,AI自己也不會做任何改變,所以很難檢測到,這並不是由外部的惡意行動者所植入的,我們該怎麼做監管?一般情況下,我們會有一些AI的防護柵欄,就像公路旁邊會有路障和柵欄一樣。這個柵欄就是防止司機開過去翻車,人工智能領域也是如此。

  比如在醫療健康或其他領域都有這樣的防護柵欄,我們必須要建立透明度,要有一個偏見的消除功能,同時讓人類參與整個過程中。人類無法檢測,得需要AI檢測這些漏洞,但是我們依舊讓人蔘與其中。一旦你找到了問題的解決方案,比如系統性脅迫的解決方案,大部分的國家就會同意,這是我們要去解決的問題。

  另外一個能達成共識的地方是,AI材料。比如2012年的上海共識就非常成功,AI的物料清單也是非常容易的,我們需要了解到AI的原始物料是哪里,我們要知道AI當中包含了哪些東西,比如廚房中放了什麼食材,AI也需要這樣的物料清單。軟件領域的物料清單已經在事實了,AI領域的物料清單也是相同的,我們需要知道它的數據元素是什麼,這是一個良好的起始點,這是一個非常透明的方法論,它可以告訴你該怎麼做,它並不會告訴你如何做,不會一步步教你怎麼做。

  最關鍵的問題是,我們要問自己一個問題,AI究竟會縮短還是會增加數字鴻溝?也許你能夠獲得全世界教授的知識,也許你可以把這些知識銷售到非洲,這可能會減少數字鴻溝,但如果你把AI侷限在富有的國家,也不讓貧窮國家訪問AI,這就會加大數據鴻溝。我們該如何建立起全球的技術標準,我們能否建立這樣的標準?地緣政治競爭衝突已經在加劇了,而且常識告訴我們,誰能夠控制AI,就能控制世界,現在模型也在朝兩個方向分化,我們現在必須聚焦於我們能達成共識的領域,有些領域是很容易達成共識的,這就是治理。

  我們要去保障網絡的安全性,我們需要從設計之初就考慮安全,我們要了解接下來大規模的軟件是什麼,比如微信、支付寶,他們已經成功實施了,下一個大的APP是什麼?我們要從第一天開始思考安全性,而不是建立起APP之后再重新考慮。

  總結部分,如PPT所示,我想強調,希臘人當時發現了造幣技術,他們怎麼做的?他們把人工智能放在其中,他們認為人們在很早的時候就發現了人工智能,我們究竟該用AI做什麼呢?計算機之前我們都知道該如何建造AI,這張照片是非常重要的,如PPT所示有一位女士正在殺死機器人,如果我們有這樣的安全閥,就不會濫用人工智能。最后一個圖片是《古蘭經》當中的AI最早期的圖像。

  如PPT所示,達芬奇也想把人工智能和人類的生理極限聯繫在一起;中間的圖片是皮格馬利翁和他的戰爭對手,當時他們建立起了雕像。最后一個是AI的電影演員,經紀公司都想和他簽約。他可以打電話他在哪里堵車,這究竟是AI還是真人呢?我剛纔提到很多技術細節,我最近有一些書《AI智能體的崛起》,它是由中信集團出版,很多細節都在這本書當中,以上就是我的演講內容,謝謝!

新浪聲明:此消息系轉載自新浪合作媒體,新浪網登載此文出於傳遞更多信息之目的,並不意味着贊同其觀點或證實其描述。文章內容僅供參考,不構成投資建議。投資者據此操作,風險自擔。

責任編輯:常福強

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。