繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

全球首例!澳洲地方市長或就誹謗信息起訴ChatGPT,索賠超90萬,誰該對AI的虛假信息傳播負責?

2023-04-06 19:20

4月6日,一則消息在推特上炸開了花。路透社報道,澳大利亞墨爾本西部赫本郡的市長布賴恩•胡德(Brian Hood)指控OpenAI旗下的ChatGPT對其進行誹謗,或將對該公司提起訴訟,因為該聊天機器人在回答問題時錯誤地聲稱他是賄賂醜聞的有罪方。

值得注意的是,一旦正式提起,這將是全球首例針對生成式AI的誹謗訴訟。前加拿大互聯網政策與公共利益診所政策顧問、現香港中文大學法律系副教授Stuart Hargreaves在推特上評論道,「生成式AI和誹謗索賠的交集將很快成為一個非常有趣的法律問題。」

實際上,ChatGPT生成的虛假信息帶來的擔憂不是首次,這種擔憂也正在引起廣泛關注。據《華盛頓郵報》5日報道,一位名叫喬納森•特利(Jonathan Turley)的法學教授也被ChatGPT錯誤地描述為曾對他人進行性騷擾,甚至還引用了不存在的報道作為信息來源。

隨着生成式AI造成的虛假信息氾濫,ChatGPT等工具受到誹謗訴訟或許只是時間問題。而這類事件也向世界提出了一個複雜的問題——誰該對AI的虛假信息傳播負責?

如今看來,AI的發展已超乎人類想象,監管機構可能還並未準備好如何解決這個問題。研究人員認為,政府應該扮演更多的角色,包括對模型的數據收集施加限制、對AI硬件的使用實施監控等。而AI開發人員、社交媒體平臺和政府機構之間還應該開放新的合作方式,來幫助AI避免發佈誤導性信息。

據報道,胡德此前曾在一家名為Note Printing Australia的公司工作,當時,他向澳大利亞監管機構舉報了公司內部向外國官員行賄以贏得貨幣印刷合同的情況。胡德在接受媒體採訪時表示,他不僅揭露了Note Printing Australia的行賄行為,還「成爲了控方證人,並經歷了無數法庭案件的所有過程」。

但在ChatGPT的描述中,胡德「被指控為在1999年至2005年期間賄賂馬來西亞、印度尼西亞和越南的官員,他在承認兩項虛假指控后被判處30個月監禁。」

「我從未被指控任何事情。」胡德説道。「真正令人不安的是,其中有些段落卻是絕對精確的,包括數字、姓名、日期、地點等。

這件事發生在今年3月。據悉,胡德已於3月21日向開發ChatGPT的公司OpenAI提交了一封「擔憂信」。根據澳大利亞的法律,受害人必須發出通知解釋情況,並要求OpenAI在28天內採取某種方式進行糾正。不過,截至目前,胡德方面還未收到OpenAI的回覆。

胡德方面表示,如果OpenAI不糾正ChatGPT關於其曾因賄賂入獄服刑的虛假説法,他可能會起訴OpenAI,這將是針對生成式AI的第一起誹謗訴訟。負責該案件的Gordon Legal律師事務所合夥人James Naughton認為,「從某種意義上説,這可能是一個具有里程碑意義的時刻,因為它將誹謗法應用於AI和IT新領域。」

澳大利亞的誹謗賠償金通常上限為40萬澳元左右(約合人民幣184萬元)。不過,Naughton表示,胡德目前不清楚讀取到有關其虛假信息的確切人數,而這是賠付金額的決定因素。但誹謗性言論的性質非常嚴重,他可能會索賠超過20萬澳元(約合人民幣92.1萬元)。

Naughton表示,一旦胡德提起訴訟,指控的方向可能是ChatGPT的回答中沒有包含腳註,這將給用户一種錯覺——它是準確的。「要追究‘算法是如何得出這個答案的’非常困難的,(ChatGPT)非常不透明。」他説道。

實際上,ChatGPT虛假信息帶來的擔憂不是首次,這種擔憂也正在引起更多主流媒體的關注。

據報道,一位名叫喬納森•特利(Jonathan Turley)的法學教授收到了一封令人不安的電子郵件。郵件顯示,作為研究的一部分,加利福尼亞州的一位律師要求ChatGPT生成一份曾對他人進行過性騷擾的法律學者名單,而特利的名字就在名單上,ChatGPT還引用了《華盛頓郵報》2018年3月的一篇文章作為信息來源。

然而,問題在於,《華盛頓郵報》並不存在這樣的報道。而特利也表示,他從未被指控騷擾學生。「這真令人不寒而慄。」他説。「這種指控非常有害。」

外媒評論認為,隨着虛假信息的泛濫,ChatGPT受到誹謗訴訟只是時間問題。像ChatGPT這樣發佈潛在誹謗內容的新型生成式AI工具可能會帶來下一個複雜的問題——誰該對AI的虛假信息傳播負責?

然而,AI的快速發展已經超乎人類的想象,監管機構可能還並未準備好如何解決這個問題。「從法律的角度來看,我們不知道當就虛假信息起訴AI製造商時,法官會如何裁決。」法律專家傑夫•科塞夫(Jeff Kosseff)説。「以前沒有經歷過這樣的事情。」

以美國為例,在互聯網興起之初,美國國會通過了一項名為第230條(Section 230)的法規,該法規保護在線服務免於對其託管的第三方創建的內容承擔責任,例如網站上的評論者或社交應用程序的用户。但專家表示,尚不清楚若科技公司因自己的AI聊天機器人制作的內容被起訴,是否能夠使用這種保護措施。

而以胡德案為例,悉尼大學媒體法教授大衞•羅爾夫(David Rolph)表示,以誹謗罪起訴OpenAI會很複雜,因為還需要考慮管轄權問題。

「我們與許多在線中介機構之間存在的一個問題是管轄權的基本問題,你真的可以在澳大利亞法院對他們提起訴訟嗎?」他説道。「很多這些互聯網中介機構都設在海外,其中很多在美國,這往往會引發各種各樣的問題。」

在ChatGPT爆紅之初,其憑藉編寫計算機代碼、創作詩歌和交互能力引起極大關注,但當時已有許多專家提出警示,這種創造力也可能成為錯誤主張的引擎,AI可以藉此極大地歪曲關鍵事實,甚至可以捏造主要來源來支持自己的主張。

為什麼AI能夠生成如此多的虛假信息?AI語言系統的好壞取決於它們接受訓練的文本,但互聯網通常充滿了文化偏見、謊言和仇恨言論。

喬治敦大學安全與應急技術中心的幾位研究人員在一篇論文中提到,要遏制此類信息,政府應該扮演更多的角色,包括對模型的數據收集施加限制、對AI硬件的使用實施監控等。此外,AI開發人員、社交媒體平臺和政府機構之間還應該開放新的合作方式,來幫助AI避免發佈誤導性信息。

目前來看,各地監管機構的確正在努力進行監管。

繼意大利之后,當地時間4月4日,加拿大隱私專員辦公室宣佈對ChatGPT開發公司OpenAI展開調查,該調查涉及「OpenAI未經同意收集、使用和披露個人信息」的指控。

免責聲明:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,亦並非旨在提供任何投資意見。有關內容不構成任何專業意見、買賣任何投資產品或服務的要約、招攬或建議。本頁面的內容可隨時進行修改,而本公司毋須另作通知。本公司已盡力確保以上所載之數據及內容的準確性及完整性,如對上述內容有任何疑問,應徵詢獨立的專業意見,本公司不會對任何因該等資料而引致的損失承擔任何責任。以上內容未經香港證監會審閲。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。