繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

硅谷又掀起口水戰:OpenAI等公司齊稱xAI不負責任!

2025-07-17 10:14

財聯社7月17日訊(編輯 馬蘭)馬斯克名下公司xAI開發的人工智能模型Grok因多次發表敏感、爭議性言論而引發關注,這讓人工智能的安全性問題再次被大加討論。

OpenAI、Anthropic和其他美國人工智能研究組織的研究人員紛紛發表了對xAI的譴責,認為該公司在人工智能模型安全性問題上行事魯莽、完全不負責任。

周二,在OpenAI從事安全研究的哈佛大學計算機科學教授Boaz Barak在X上公開批評稱,他本來不想發表關於Grok安全性方面的文章,因為他的公司與其存在競爭,但此事無關競爭。他很欣賞xAI的科學家和工程師,但他們處理安全問題的方式完全不負責任。

Barak對xAI不發佈系統卡的決定尤其不滿。美國AI行業一般會在模型公佈后發佈系統卡,其中詳細說明了模型的訓練方法和安全評估,以與研究界分享信息。但Barak表示,現在學界和業界對Grok 4進行了哪些安全訓練一無所知。

立場倒轉

xAI的Grok 4模型於上周三推出,用户需支付每月30美元的訂閲費用才能使用。然而,這一被宣傳為「世界上最聰明」的聊天機器人在短短一周內數次掀起美國的輿論風浪,發表了諸如支持希特勒、好萊塢被猶太人掌控等言論。

Anthropic的人工智能安全研究員Samuel Marks表示,xAI在模型安全問題上十分魯莽。雖然Anthropic、OpenAI和谷歌的發佈也存在問題,但他們至少做了一些事情,在部署模型前評估安全性並記錄了調查結果。xAI卻什麼都沒有。

OpenAI和谷歌在及時分享新模型的系統卡方面聲譽不佳。比如OpenAI不發佈GPT-4.1的系統卡,理由是它並非前沿模型。谷歌則在發佈Gemini 2.5 Pro數月后才發佈安全報告。

然而,這些公司通常都會在前沿模型全面投入生產之前發佈安全報告,而xAI的做法與行業慣例截然不同。一名研究人員聲稱,根據其測試,Grok 4沒有任何有意義的安全護欄。

xAI安全顧問兼人工智能安全中心主任Dan Hendrycks迴應,該公司對Grok 4進行了危險能力評估。但評估結果並未被公開分享。

令人詬病的是,馬斯克此前一直以人工智能安全倡導者的形象出現,多次警告稱,先進的人工智能系統可能會給人類帶來災難性的后果。他還多次抨擊OpenAI在模型安全性上的瑕疵,但沒想到他自己公司的Grok 4模型也陷入了安全性爭議。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。