繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

AI深度偽造威脅巨大?頂級專家:沒那麼可怕,可以辨別!

2024-05-09 17:22

財聯社5月8日訊(編輯 黃君芝)自人工智能(AI)爆火全球以來,儘管帶來了許多便利和機會,但也平添了不少擔憂。例如,網絡安全專家們就擔心,AI生成的內容有可能扭曲我們對現實的看法。而且在關鍵的選舉年中,這種擔憂更令人不安。

但思科Talos安全情報與研究小組的技術主管Martin Lee並不這麼認為,他覺得深度偽造技術(Deepfake)構成的威脅可能被「誇大了」。據悉,在思科有一支名叫「Talos」的安全研究團隊,由大約250名安全研究人員與600名軟件工程師組成。

Lee指出,新的生成式人工智能工具確實「有可能使虛假內容的生成變得更容易」,深度偽造本身也是一項強大的技術,但是是有缺陷的:AI生成的材料通常會包含明顯的可識別特徵,表明它不是由真人制作的。

尤其是視覺內容,已被證明容易受到影響。例如,人工智能生成的圖像可能包含視覺異常,例如一個人有兩隻以上的手,或者一個肢體被合併到圖像的背景中。

image

另一方面,用AI合成的語音音頻和真人的語音片段之間進行分辨可能會比較困難。但專家們表示,人工智能的水平仍然取決於它的訓練數據。

但Lee表示,客觀地看,機器生成的內容通常可以被檢測到。

目前威脅不大

美國雲端運算和企業軟體公司Appian的首席執行官Matt Calkins表示,人工智能「用處有限」。該公司幫助企業更容易地利用軟件工具製作應用程序。他認為,今天的許多生成式人工智能工具可能很「無聊」。

他指出,真正的問題在於「我們願意信任人工智能,讓它瞭解我們自己」。他警告説,這可能會使它在未來成為一個更有效、更危險的虛假信息工具。他還説,他對美國在監管這項技術方面取得的進展感到不滿。

他補充説,可能需要人工智能製造出一些極其「冒犯」的東西,美國立法者纔會採取行動。他説,「給我們一年時間,等到人工智能冒犯了我們再説吧。然后也許我們會做出正確的決定。」

不過,無論人工智能有多先進,思科的Lee表示,還是有一些經過驗證的方法可以發現錯誤信息的,無論這些信息是機器還是人類製造的。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。