熱門資訊> 正文
2023-03-30 02:00
綜合多家媒體報道,在人工智能(AI)技術越來越廣泛地被用於消費產品的同時,科技巨頭卻一直在削減AI倫理團隊的人員,導致外界對這項新技術的安全性感到擔憂。
AI倫理團隊是專門評估部署人工智能相關倫理問題的團隊,主要職責是為使用人工智能的消費產品提供安全建議。據瞭解,削減該團隊的公司包括微軟、Meta、谷歌、亞馬遜、推特等,這意味着FAANG中只有蘋果公司不在這一「撤防」行列。
去年下半年以來,為應對經濟形勢不加、成本上升等問題,科技巨頭先后宣佈縮減支出,裁員人數動輒上萬。一般來説,各公司的AI倫理團隊只有數十人,因此團隊即使被大幅縮減,通常也不會特別引起注意。
不過,由於聊天機器人ChatGPT的橫空出世,人們對這項技術的警惕性高了起來,有專家警告已經存在濫用行為。日內,未來生命研究所(Future of Life Institute)呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統。
多家科技巨頭裁減AI倫理團隊
同時,公司裁減AI倫理安全團隊的行為也逐漸被放到放大鏡下。谷歌旗下的AI初創公司DeepMind的前倫理和政策研究員Andrew Strait告訴媒體,「當下可以説是最需要這些團隊的時候,但公司還是放走了那麼多AI安全人員,令人震驚。」
兩周前,ChatGPT開發商OpenAI的「金主」——微軟公司被曝在今年1月解散了其整個「AI道德與社會團隊」,同時公司卻在引領潮流,加速將ChatGPT的同源技術嵌入到更多的產品中。
微軟方面解釋稱,削減的職位不到10個,其在責任工作方面的整體投資始終在增加。並且公司仍然在負責任AI辦公室(ORA)團隊中保留數百人,專注於制定規則來管理公司的AI計劃。
雖然埃隆·馬斯克是「帶頭抵制GPT5」的科技圈大佬之一,但消息顯示,他在控制推特后也削減了這家社交媒體公司的AI道德團隊。
另據一位消息人士透露,亞馬遜也在上周「官宣再裁員9000人」時,裁撤了旗下流媒體平臺Twitch的AI道德團隊。
曾爆料聊天機器人「活了」谷歌吹哨人被裁
谷歌方面,有接近公司的人士透露,一些負責道德AI監督工作的員工也在1.2萬人的大裁員中被裁掉了。值得一提的是,在ChatGPT公佈之前,谷歌公司就已經發生過一件「聳人聽聞」的事。
去年4月,時任谷歌AI倫理研究員的Blake Lemoine在交給高管的一篇報告中寫道:在經過一段時間的測試后,他認為公司研發的AI聊天機器人「LaMDA」已經覺醒了意識,具有與人類孩子相當的感知和表達思想和感受的能力。
當時,谷歌高管調查了他的説法並予以駁回。其后,Lemoine還聯繫了美國眾議院司法委員會的職員,要讓LaMDA上聽證席,控訴谷歌不符合道德要求。2022年7月,谷歌發言人證實Lemoine已被解僱。
值得一提的是,當時仍較為低調的OpenAI首席科學家Ilya Sutskever也發推文表示大型神經網絡「可能有點意識了」,一度也鬧的沸沸揚揚。
「AI系統可能對社會和人類構成深遠的風險」
前Facebook人工智能倫理研究員Josh Simons告訴媒體,人工智能倫理團隊是科技巨頭唯一的、關鍵的內部堡壘,這些堡壘被拆除將導致算法受到廣告需求的擺佈,可能會影響孩子、弱勢羣體乃至整個社會。
未來生命研究所也在公開信中表示,「大量研究表明,具有與人類競爭智能的AI系統可能對社會和人類構成深遠的風險,這一觀點得到了頂級AI實驗室的承認。」
公開信指出,「最近這幾個月,全球的AI實驗室已經完全失控了,它們瘋狂地開展AI競賽,來開發和部署更強大的AI,而沒有任何人可以理解、預測、控制這些AI,連它們的創造者都不能。」
倫敦國王學院人工智能研究所所長Michael Luck表示,「我們無法完全預測這些新技術將要發生的所有事情,我們要對它們給予一定的關注,這很關鍵。」
另外,聊天機器人的核心技術「大語言模型」已經被證明會作出虛假的陳述,可能被用於操縱選舉和傳播虛假信息等目的。
OpenAI公司首席執行官山姆·阿爾特曼也曾表示,「我最想提醒人們的是,AI模型會自信地陳述一些虛構的事物,就好像它們是真實的事情一樣。」