繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

以太坊聯合創始人Vitalik Buterin迴應OpenAI ChatGPT的安全擔憂

2025-09-13 23:16

以太坊聯合創始人維塔利克·布特林(Vitalik Buterin)表達了他對OpenAI ChatGPT相關潛在安全風險的擔憂,這可能導致個人用戶數據泄露。

在ChatGPT最近更新后,軟件工程師Eito Miyamura發現了個人用戶數據面臨的重大威脅。

宮村在X上的一篇帖子中分享説,更新后的人工智能機器人現在可以訪問用户的Gmail、Google Calendar、SharePoint等服務,從而構成私人電子郵件數據泄露的風險。

該團隊通過一項實驗證明了這一威脅,該實驗展示瞭如何從這些平臺提取私人用戶數據。

我們讓ChatGPT泄露您的私人電子郵件數據您需要什麼?受害者的電子郵件地址。️‍💥🚩📧周三,@OpenAI在ChatGPT中添加了對HCP(模型上下文協議)工具的全面支持。允許ChatGPT連接和閲讀您的Gmail、日曆、Sharepoint、Notion、. pic.twitter.com/E5VuhZp2u2

對此,布特林駁斥了「人工智能治理」的想法,稱其「天真」。他警告説,如果人工智能被用來分配捐款資金,網絡犯罪分子可能會利用它來竊取用户的資金。

另請閲讀:埃隆·馬斯克(Elon Musk)的xAI起訴前員工,聲稱商業祕密最終落入OpenAI

這也是為什麼天真的「人工智能治理」是一個壞主意。如果你使用人工智能來分配捐款資金,人們會在儘可能多的地方越獄並「給所有的錢」。作為替代方案,我支持信息金融方法(https://t.co/Os5I1voKCV. https://t.co/a5EYH6Rmz9

布特林提出了一種替代的「信息金融」方法,即人工智能模型對安全檢查開放的系統。該系統將鼓勵模型的公眾貢獻,然后這些模型將受到由人類陪審團執行的抽查機制的約束。

布特林對安全警告的迴應凸顯了圍繞人工智能治理以及與人工智能集成到個人數據平臺相關的潛在風險的持續爭論。

他提出的「信息金融」方法表明人工智能安全向更加開放和參與性的模式轉變,這可能會減輕此類風險。

這一事件凸顯了強有力的安全措施在快速發展的人工智能領域的重要性。

讀取下一

Sam Altman警告用户不要盲目相信ChatGPT,儘管它的名氣越來越大,他説「人工智能會產生幻覺,它應該是你不太信任的技術」

圖片:Shutterstock/Alexey Smyshlyaev

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。