熱門資訊> 正文
2023-05-17 09:00
·OpenAI首席執行官山姆·奧特曼説,「我認為,如果這項技術出了問題,它可能會大錯特錯」,「鑑於我們明年將面臨選舉,而這些模型正在變得更好,我認為這是一個值得關注的重要領域」。
·參議員迪克·杜賓表示,大公司來到參議院「懇求我們對其進行監管」是很了不起的。
當地時間5月16日,OpenAI首席執行官山姆·奧特曼在美國國會作證。
當地時間5月16日,OpenAI首席執行官山姆·奧特曼在美國參議院就人工智能技術的潛在危險作證,敦促立法者對開發GPT-4等先進人工智能系統的組織實施許可要求和其他法規。
「我們認為政府的監管干預對於減輕日益強大的模型的風險至關重要。」奧特曼説,「例如,對開發和發佈超過能力門檻的AI模型,美國政府可以考慮把實施許可和測試要求結合起來。」
出庭作證的還有IBM的首席隱私和信任官克里斯蒂娜·蒙哥馬利(Christina Montgomery)和著名AI專家加里·馬庫斯(Gary Marcus)。馬庫斯指出,美國政府可能需要一個擁有技術專長的「內閣級組織」專門監督人工智能。
近年來,以科技高管為主題的國會聽證會的基調一般會用「敵對」來形容,Facebook創始人馬克·扎克伯格、亞馬遜創始人傑夫·貝索斯等科技名人都曾在國會山被對其公司不滿的立法者訓斥。但奧特曼在聽證會上受到了議員的表揚。
參議員使用ChatGPT發表開場白
奧特曼是在參議院司法委員會隱私、技術和法律小組委員會舉行的聽證會上發表上述講話的。
小組委員會主席、參議員理查德·布魯門撒爾(Richard Blumenthal,康涅狄格州民主黨)在聽證會上發表開場白,「我們經常看到技術超出監管時會發生什麼。」他説,「對個人數據的無節制利用、虛假信息的泛濫和社會不平等的加深。」
開場白的文字由ChatGPT撰寫,語音應用程序根據布魯門撒爾在參議院的演講訓練生成音頻。
這時候,所有目光都轉向了坐在證人席上準備提供證詞的奧特曼。布魯門撒爾發出笑聲,説人工智能能夠製作出如此逼真的音頻片段真是太神奇了。他接着用自己真正的聲音閲讀了開場白的其余部分。
布魯門撒爾支持成立一個機構來監管AI的想法,但他警告説,如果新機構得不到足夠的資金和科學專業知識,科技公司「將繞着他們轉圈子」。他指出,美國公司通常反對任何新規定,但就人工智能製造商而言,「我感覺到這里有一種真正的參與意願。」
據參加前一天晚宴和會議的人士透露,奧特曼在當地時間5月15日晚與數十名眾議院議員共進晚餐,並在聽證會前與多位參議員私下會面。
幾位立法者對OpenAI和IBM願意面對新監管發表了評論,伊利諾伊州民主黨人迪克·杜賓(Dick Durbin)表示,大公司來到參議院「懇求我們對其進行監管」是很了不起的。新澤西州民主黨人科里·布克(Cory Booker)甚至多次直接稱呼奧特曼的名字山姆。
奧特曼建議國會成立新機構,定義能力門檻
雖然奧特曼強調人工智能的好處,但他在聽證會上表示,OpenAI「非常擔心」選舉受到人工智能生成的內容的影響。他擔心人工智能行業可能「對世界造成重大傷害」。「我認為,如果這項技術出了問題,它可能會大錯特錯,我們希望對此直言不諱。」 「我們希望與政府合作,防止這種情況發生。」
「鑑於我們明年將面臨選舉,而這些模型正在變得更好,我認為這是一個值得關注的重要領域……我確實認為在這個話題上進行一些監管是非常明智的。」他説。
奧特曼建議國會成立一個新機構,為「超過一定規模的能力」的人工智能技術頒發許可證,在向公眾發佈AI系統之前,應該由可以判斷該模型是否符合這些規定的專家進行獨立審計。
不過,奧特曼認為繁瑣的要求不應該適用於模型遠不如OpenAI先進的公司和研究人員。他建議國會「定義能力門檻」,並將能夠執行某些功能的人工智能模型納入嚴格的許可制度。
例如,奧特曼説,「可以説服、操縱、影響一個人的行為、信仰」或「幫助創造新型生物製劑」的人工智能模型可能需要獲得許可。為任何超過特定計算能力閾值的系統要求許可會更簡單,但他更願意根據特定功能劃定監管界限。
OpenAI由非營利和營利實體組成。奧特曼表示,OpenAI的GPT-4模型「比具有類似功能的任何其他模型更有可能做出有益和真實的響應並拒絕有害請求」,部分原因是廣泛的預發佈測試和審計:在發佈任何新系統之前,OpenAI會進行廣泛的測試,聘請外部專家進行詳細審查和獨立審計,改進模型的行為,並實施強大的安全和監控系統。在發佈最新模型GPT-4之前,他們花了六個月時間進行廣泛的評估、外部紅隊測試和危險能力的測試。
奧特曼還表示,人們應該能夠選擇不將他們的個人數據用於訓練AI模型。OpenAI上個月宣佈,ChatGPT用户現在可以關閉聊天記錄,以防止對話被用於訓練AI模型。
IBM提出透明度要求,建議參考歐洲
蒙哥馬利在聽證會上表示,IBM敦促國會對人工智能採取精確的監管方法。「從本質上講,AI只是一種工具,工具可以服務於不同的目的。」她説,「這意味着建立規則來管理人工智能在特定用例中的部署,而不是監管技術本身。」
蒙哥馬利呼籲擬議類似歐洲的法規,其中概述了不同級別的風險。她提出,國會應該明確定義人工智能的風險,並「針對不同的風險制定不同的規則」,最嚴格的規則「適用於對人類和社會風險最大的用例」。
蒙哥馬利提出了透明度要求,稱消費者應該知道他們何時與人工智能互動。「任何地方的人都不應該被誘騙與人工智能系統互動……人工智能時代不能成為另一個快速行動和破壞事物的時代。」她説。
蒙哥馬利還表示,美國應該迅速讓公司對部署「在選舉等方面傳播錯誤信息」的人工智能負責。
馬庫斯擔心新聞質量下降,批評微軟
參議員們還聽取了加里·馬庫斯的説法,馬庫斯是一位創辦了兩家人工智能和機器學習公司的作家,也是紐約大學心理學和神經科學名譽教授。他在聽證會上説,人工智能可以製造具有説服力的謊言並提供有害的醫療建議。他批評微軟在「悉尼」聊天機器人(新必應聊天機器人的內部名稱)表現出令人震驚的行為后沒有立即將其撤下。
AI大牛加里·馬庫斯(左)與山姆·奧特曼在作證前宣誓。
「悉尼顯然有問題......我會暫時將其從市場上撤回,但他們沒有。」馬庫斯説。「這給我敲響了警鍾,提醒我即使有像OpenAI這樣的非營利性公司……其他人也可以收購這些公司並隨心所欲。也許現在我們有一組穩定的參與者,但這些系統在塑造我們的觀點和生活方面所擁有的力量確實非常重要,而且這甚至沒有考慮到有人可能故意將它們重新用於各種不良目的的風險。」
人工智能生成的新聞文章是馬庫斯討論的另一個問題。他説,隨着越來越多的新聞由人工智能撰寫,「整個新聞市場的質量將會下降」。
馬庫斯説,美國政府可能需要一個擁有技術專長的「內閣級組織」,其全職工作是監督人工智能。他説,在廣泛部署人工智能系統之前,應該進行類似食品和藥物管理局(FDA)的安全審查,並在產品發佈后再進行審查。
但馬庫斯也警告參議員們要提防濫用監管的可能性。 「如果我們讓監管看起來好像我們在做什麼,但它更像是綠色外衣(greenwashing,指機構為樹立對環境負責的公共形象而散佈虛假信息),實際上什麼都沒有發生,我們就會把小玩家拒之門外,因為我們給他們施加了太多的負擔,以至於只有大玩家才能做到。」他説。
「阻止人工智能發展沒有意義」
一些人工智能評論家呼籲暫停開發,有非營利性人工智能研究小組指責OpenAI在沒有適當考慮其風險的情況下發布GPT-4。奧特曼表示,迭代發佈更好,因為「我認為,祕密構建一個超級強大的AI系統,然后一次性將它投放到世界上,並不會有好結果。」
奧特曼説:「我們戰略的很大一部分是在這些系統相對薄弱且非常不完善的情況下找到讓人們體驗它們的方法……並弄清楚我們需要做些什麼才能讓它更安全、更好。」
參議員布魯門撒爾説,試圖阻止人工智能的發展是沒有意義的,「世界不會等待,全球科學界的其他成員也不會停下來。我們的對手正在前進,把頭埋在沙子里不是答案。」
布魯門撒爾表示,「人工智能公司應該被要求測試他們的系統,披露已知風險,並允許獨立研究人員訪問。」「在某些地方,人工智能的風險如此之大,以至於我們應該施加限制甚至禁止它們的使用,尤其是在涉及商業性侵犯隱私以謀取利益和影響人們生計的決策時。」
參議員喬希·霍利(Josh Hawley)建議,人工智能的危害可以通過集體訴訟和其他訴訟來處理,國會可以「建立聯邦訴訟權,允許受到這項技術傷害的個人」起訴公司。
奧特曼指出,人們已經可以就技術造成的危害起訴OpenAI。馬庫斯説,訴訟是不夠的,可能需要十年或更長時間,霍利的建議「肯定會讓很多律師變得富有,但我認為它太慢了,無法影響我們關心的很多事情。」
聽證會上還討論了人工智能對工作的影響。 IBM首席執行官阿温德·克里希納(Arvind Krishna)最近透露,計劃暫停招聘約7800個可能被人工智能系統取代的工作崗位。蒙哥馬利表示,「將創造新的工作崗位,更多的工作崗位將被轉變,一些工作崗位將被轉移。」奧特曼告訴參議員們,「GPT-4將完全自動化一些工作,並將創造我們認為會更好的新工作。」
聽證會上的一些立法者仍然表現出華盛頓和硅谷之間在技術知識方面的持續差距。南卡羅來納州共和黨人林賽·格雷厄姆(Lindsey Graham)反覆詢問證人,針對Facebook和谷歌等在線平臺的言論責任保護是否也適用於人工智能。奧特曼表現鎮定,多次嘗試區分人工智能和和社交媒體。 「我們需要共同努力尋找一種全新的方法。」他説。