繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

《AI智能體的崛起》作者佩塔爾·拉達尼列夫:AI治理刻不容緩,安全應貫穿開發全流程

2025-10-17 12:06

專題:2025可持續全球領導者大會&首屆綠色產業與可持續消費博覽會

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

  2025可持續全球領導者大會於10月16日-18日在上海市黃浦區世博園區召開。

  《AI智能體的崛起》作者,牛津大學計算機科學系專業碩士課程導師,艾倫·圖靈研究所研究員佩塔爾·拉達尼列夫(PetarRadanliev)出席2025可持續全球領導者大會並主旨演講。

  「AI發展如雙刃劍,一邊推動新葯研發、經濟進步,一邊暗藏安全漏洞與治理難題,而解決問題的核心,在於從開發之初就築牢安全防線。」佩塔爾・拉丹利耶夫直面AI發展的核心矛盾,為全球AI治理提供了關鍵思路。

  佩塔爾・拉丹利耶夫指出,AI已深度融入社會各領域。2018年GPT模型問世后,線上數據庫中可複用的AI模型已超1600個,它們在新葯研發中助力攻克癌症、在自動駕駛中突破技術瓶頸,甚至能呈現比頂尖學府教師更優質的知識內容。但技術進步的背后,風險也在滋生——16歲年輕人利用暗網中的「詐騙GPT」實施犯罪,生成式AI的「幻覺」可能引發系統性崩潰,這些問題都凸顯了AI治理的緊迫性。

  他進一步分析,當前不少企業存在「重開發、輕安全」的傾向,認為執行安全標準會拖累發展進度。但實際上,缺乏安全保障的AI會喪失用户信任,最終導致業務受損。以「睡眠智能體」為例,這種可能被植入系統的惡意程序,可潛伏數年甚至十幾年,在GPS、醫院等關鍵場景中引發風險,且因難以被AI自身檢測,成為當前最棘手的威脅之一。

  佩塔爾・拉丹利耶夫強調,AI安全不能「事后補救」,而應「事前規劃」。無論是即將到來的量子AI,還是下一代AI操作系統,都需從設計階段就融入安全邏輯,建立類似「公路柵欄」的防護機制,同時通過「AI物料清單」明確數據來源與構成,以透明度消除隱患。只有讓安全成為AI發展的底色,才能避免技術濫用,釋放其真正價值。

  2025可持續全球領導者大會由世界綠色設計組織(WGDO)與新浪集團聯合主辦,國際財務報告準則基金會(IFRSFoundation)北京辦公室協辦,新浪財經與世界綠色設計組織北京代表處承辦,上海市黃浦區人民政府支持。大會以「攜手應對挑戰:全球行動、創新與可持續增長」為核心主題,匯聚全球智慧力量,共探可持續發展新路徑,為全球可持續治理注入澎湃的「中國動能」。

  本屆可持續大會在以往四屆「ESG全球領導者大會」的基礎上進一步升級!嘉賓陣容強大,可持續大會組委會邀請約500位中外重磅嘉賓,其中約100位為海外嘉賓,不僅有政要、前政要、國際組織的代表,還包括了諾貝爾獎得主、圖靈獎得主、全球500強企業負責人等國際頂尖學者與業界領軍代表。本屆大會將圍繞近50個議題展開深入研討,議題涵蓋能源與「雙碳」、綠色金融、可持續消費、科技與公益等細分領域。

新浪聲明:此消息系轉載自新浪合作媒體,新浪網登載此文出於傳遞更多信息之目的,並不意味着贊同其觀點或證實其描述。文章內容僅供參考,不構成投資建議。投資者據此操作,風險自擔。

責任編輯:常福強

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。