繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

「AI教父」為發展 AI 而后悔,警告:AI可能變得比人類更聰明

2023-05-02 22:50

如果人類和AI最終走到兵戎相見,上演《終結者》戲碼的那一步,那麼被譽為「深度學習之父」的Geoffrey Hinton(傑弗里·辛頓)無疑是約翰·康納一般的角色——在電影里,他是人類反抗「天網」的領導人。
 

 

 

據多家媒體報道,被稱為「人工智能(AI)教父」的傑弗里·辛頓周一證實,他已經從工作了十余年的谷歌離職,現在可以暢談AI可能帶來的風險。

在接受媒體採訪時,他表示,「我對我畢生所研究的東西感到后悔了。」傑弗里形容稱,AI聊天機器人所帶來的某些危險「相當恐怖」。

報道稱,開發出了被認為是當代AI基礎系統的傑弗里已經正式加入了「AI批評者」的行列。

 

 

 

為發展 AI 而后悔

 

據瞭解,辛頓以前在谷歌參與了AlphaGo人工智能項目,該項目獲得了巨大成功,以在圍棋比賽中打敗人類世界冠軍聞名。

辛頓在接受採訪時稱,他離開谷歌的原因,是因為他越來越擔心人工智能可能帶來的問題,特別是當它被用於武器開發和警察監控等領域時。他表示,目前,每個工程師都更關注如何使AI變得越來越厲害,而不是考慮它如何適應社會和環境。他強調了建立一個可信、公開和透明的機制的重要性,以確保AI被正確監管和控制,以發揮其潛力和減輕其負面影響。

在接受《泰晤士報》採訪時,辛頓表示:

AI會替代很多現有的工作崗位,創造一個讓人們不知道什麼是真實的世界。並且,AI的進步速度遠遠超過了包括他在內的很多專家的預期。 

辛頓説:

「以前人們覺得AI變得比人類聰明的事情可能要30至50年才能實現,不過顯然,現在我認為這一切可能發生得更快。」 

現階段,辛頓里最擔心的就是通過利用AI,網絡上會出現很多虛假的圖片、視頻和文字,這可能讓人分不清真假。其次,他還擔心AI將改變整個人類就業市場,可能導致如律師助理、私人助理、翻譯等崗位的消失。在未來,辛頓擔心AI會對人類構成威脅,「因為AI可能通過大量的數據和分析,出現一些令人意想不到的行為。」辛頓解釋道。

辛頓補充稱,一些公司和個人已經允許AI寫代碼,甚至自主運行代碼。「我擔心未來類似於‘殺人機器人’的自動化武器可能成為現實。」辛頓進一步表示,「很難想象你能如何阻止壞人利用它做壞事」。

據瞭解,此前在被問及「AI會不會被用於危險技術」時,傑弗里回答稱「你可以試試看」。而現在,他不會再這麼說了。

值得注意的是,辛頓不是第一個對AI發展提出警告的人,自從 OpenAI 在 3 月份發佈了最新版 ChatGPT-4 模型后,包括特斯拉創始人馬斯克在內的近千名科技界知名人士,簽署了一封公開信,稱希望世界領先的人工智能實驗室暫停開發六個月,因為最近的人工智能最新進展「對人類社會造成潛在的威脅」。這封信的發佈時間,正好是在馬斯克創立的人工智能研究公司OpenAI發佈了ChatGPT的最新版本GPT-4兩周后。而該款人工智能軟件,是人類社會迄今為止發佈的最強大的人工智能系統。

此前,辛頓沒有在這兩封信上簽名。他説,在辭職之前,他不想公開批評谷歌或其他公司。上個月,他通知公司他將辭職。周四,他與谷歌母公司 Alphabet CEO 桑達爾・皮查伊 (Sundar Pichai) 通了電話。他拒絕公開討論與皮查伊談話的細節。

此外,美國參議院多數黨領袖舒默近期發起一項針對人工智能的治理框架,並聘請了頂尖的人工智能專家進行諮詢。該計劃將側重於建立人工智能系統的透明度,並要求獨立專家在公開發布之前測試人工智能技術,並要求披露參與技術開發的人員、地點和方式。

谷歌也已經發布了一份概述「監管人工智能建議」的文件,並提出「社會必須迅速適應監管、建立起懲罰濫用人工智能行為的法律和各國之間的條約,以確保人工智能對世界安全,並確保與人類價值觀保持一致的規則」。

免責聲明:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,亦並非旨在提供任何投資意見。有關內容不構成任何專業意見、買賣任何投資產品或服務的要約、招攬或建議。本頁面的內容可隨時進行修改,而本公司毋須另作通知。本公司已盡力確保以上所載之數據及內容的準確性及完整性,如對上述內容有任何疑問,應徵詢獨立的專業意見,本公司不會對任何因該等資料而引致的損失承擔任何責任。以上內容未經香港證監會審閲。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。