繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

AI倫理之惑:馬斯克等科技大佬為何攔停GPT-5

2023-03-31 00:49

在OpenAI的帶領下,GPT一遍又一遍地衝破人們對於AI的預期。

而在對GPT-4進行一系列實驗后,微軟研究團隊也在報告中承認大模型背后的AI潛力:GPT-4是使用前所未有的計算和數據規模訓練出來的,而除了對語言的掌握,GPT-4還能解決跨越數學、編碼、視覺、醫學、法律、心理學等領域的新穎而困難的任務,而不需要任何特殊的提示。

  「此外,在所有這些任務中,GPT-4的表現都驚人地接近人類水平,而且往往大大超過了ChatGPT等現有模型。鑑於GPT-4能力的廣度和深度,我們認為可以合理地將其視為通用人工智能(AGI)系統的早期(但仍不完整)版本。」微軟在研究報告中表示。

  另一邊,在人們都在為AI的飛速進化而歡呼雀躍時,研究機構未來生命研究所(Future Life Institute)近日卻公佈了一封公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。

  「我們不應該冒着失去對文明控制的風險,將決定委託給未經選舉的技術領袖。只有當確保強大的人工智能系統的效果是積極的,其風險是可控的才能繼續開發。」該機構在信中表示,而「未經選舉的技術領袖」顯然是在內涵佔盡風光的OpenAI。

  截至目前,馬斯克、蘋果聯合創始人Steve Wozniak和Stability AI創始人Emad Mostaque在內的諸多科技大佬和AI專家已經簽署公開信,他們認為,人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。

  當AI開始對齊甚至超越人類能力時,「對社會和人類構成潛在風險」就已經不再是充滿科幻色彩的口號。

潘多拉魔盒

  儘管GPT-3在2020年就已推出,但直到2022年,研究人員才發現預訓練大模型產生了類似人類推理思維的能力。

  當用户向語言大模型提問的時候,可以在提示問題(Prompt)里寫幾個示例,讓模型照着例子做生成,像ChatGPT就可以根據用户演示的推理過程,來推導其它問題的答案,這種模仿人類思維的推理能力不需要再進行復雜的訓練,只需要在提問時給出提示,模型就能自動學習,並做出相應推理得到正確結果。

  但問題在於,通過「喂數據」得到的AI思維能力在原理上是如何實現的,以及繼續「大力出奇跡」之后,AI又會如何進化?

  日前,OpenAI CEO Sam Altman公開坦誠表示,GPT系列為何會出現推理能力,OpenAI的研究者自己也搞不明白,他們只知道,在不斷測試中,人們忽然發現,從ChatGPT開始,GPT系列開始出現了推理能力。

  2022年6月15日,谷歌研究院聯合DeepMind和斯坦福大學發表了一篇論文:《大語言模型的突現能力》(Emergent Abilities of Large Language Models)。研究人員驚訝發現,AI的思維能力,並不是隨着模型參數大小的線性變化逐漸出現的,而是當參數規模超過某一閾值后,模型的思維能力突然涌現出來,即所謂大模型的「突現能力」(Emergent Abilities)。

  論文指出,大模型在參數規模達到某個臨界值之前,其性能是近乎隨機的,之后性能會忽然大幅增加,彷彿突然開竅一般,參數規模的量變導致了質變,而這種質變會何時發生,卻充滿不確定性,參數量級夠大隻是一個必要條件,一些大模型在大量「投喂」后卻並沒有表現出思維能力。

  「我們一般認為這個參數規模是在千億左右,但問題在於,隨着投喂量進一步擴大,模型會再突現出什麼能力是無法預測的。比如GPT-4已經能夠依據命令設定自己的身份與人交流,如果再投喂下去,GPT-6或者GPT-8會不會進化到可以自行設定身份,具備自我意識甚至主動隱藏自己的某種‘價值觀’?」一位NLP領域專業人士對21世紀經濟報道記者表示。

謹防AI危險競賽

  技術的不確定性之外,另一個擔憂在於AI浪潮裹挾下,AI又會被帶向何方?

  在AI所帶來的生產力革命以及顛覆傳統人機交互模式的巨大想象力下,微軟「梭哈」OpenAI;落后一步的谷歌越挫越勇、緊追不捨;賭對了的英偉達高喊「AI的iPhone時刻」;國內大小科技廠商更是直接將大模型奉為「政治正確」……

  在這樣新一輪瘋狂的AI競賽中,科技公司爭搶新時代的船票,無疑都希望用更短的時間開發和部署更強大的AI,而這個過程中,是否會裹挾更多瘋狂,加劇未來AI技術進化的不確定性。一個看上去不那麼妙的信號是,大型科技公司在不斷提高對AI投入的同時,卻又一直在裁減致力於評估部署AI相關倫理問題的團隊員工。

  根據公開信息統計,微軟、Meta、谷歌、亞馬遜等公司都裁減了其「負責任的人工智能團隊」(Responsible AI)的成員,這些團隊負責為使用AI的消費產品提供安全建議。

  例如,今年1月,在微軟的萬人級別大裁員行動中,微軟解散了其所有的倫理道德與社會團隊,在加速將OpenAI的技術整合到自家商業帝國每個角落的同時,卻不再設立專門的團隊來確保AI原則和產品設計緊密相關。

  此前,谷歌內部也出現過關於AI技術的發展、影響和安全性之間的緊張關係,兩位AI倫理研究負責人Timnit Gebru和Margaret Mitchell在與該公司爆發了一場激烈爭吵后,分別於2020年和2021年離職。

  在公認機會與風險並存的情況下,科技巨頭們努力發出信號,證明自己正在認真對待AI中的潛在風險。比如在社會道德倫理團隊被解散之后,微軟表示仍有三個不同的團隊在這個問題上開展工作。

  儘管被裁減的道德團隊員工也僅有幾十人,只是整個科技行業低迷而被裁掉的數萬名員工中的冰山一角,在AI高速發展以及大型科技公司主導權越來越重的當下,對有責任出於安全考慮給產品開發速度踩剎車的道德團隊進行任何削減,似乎都值得注意。

  公開信在最后提到,如今,我們的社會已經暫停其他可能造成災難性影響的技術,對於人工智能也應該如此,「讓我們享受一個漫長的‘AI之夏’,而不是毫無準備地進入秋天」。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。