繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

AI造假「浪潮」涌來 人們如何「上岸」?

2023-06-15 14:00

AI軟件可以輕易生成「逼真」圖片 AI軟件可以輕易生成「逼真」圖片

AI軟件生成的特朗普被捕圖和特朗普福奇親吻圖 圖GJ

AI軟件生成的特朗普被捕圖和特朗普福奇親吻圖 圖GJ AI軟件生成的特朗普被捕圖和特朗普福奇親吻圖 圖GJ

文/本報記者 王若弦

這是一個人工智能(AI)技術飛速發展的時代,這是一個真實和虛假愈加難辨的時代。

一張美國前總統特朗普親吻前白宮首席醫療顧問福奇的照片近日引發爭議,后經網友仔細查證,這是一張AI生成圖,由特朗普的黨內競爭對手德桑蒂斯團隊炮製,目的是抨擊特朗普在任時抗疫不力。

克隆聲音、一鍵換臉、炮製假新聞……當AI製造的謊言潛入現實,究竟該如何釐清真假的邊界?

擬聲換臉騙局頻現

當電話另一端傳來親友的呼救聲,誰會想到這竟然是一個赤裸裸的AI騙局。前段時間,一對加拿大夫婦就經歷了這樣一場「聲音克隆噩夢」。

據《華盛頓郵報》報道,這對夫婦3月接到一通電話,電話那頭一名自稱律師的男子説,他們的兒子珀金因在一場車禍中撞死一名美國外交官而入獄,出庭前急需21000美元律師費。

讓故事顯得更為逼真的是,電話中還傳來了近似珀金的聲音。這對夫婦掛完電話慌作一團,立刻跑去銀行將錢轉給「律師」。直到兒子當晚打電話過來,他們才發覺被騙。

這家人迅速報警,經警方調查,電話中「兒子」的聲音是詐騙集團根據珀金在社交平臺發佈的視頻,利用AI技術仿造他的聲音。

儘管查明瞭事情真相,被騙的錢財卻一去不復返。美國聯邦貿易委員會(FTC)營銷實踐部助理主任威爾·麥克森表示,追蹤語音詐騙者極為困難,他們使用的電話可能位於世界上任何角落。

同樣在3月,美國的格雷格夫婦也接到了類似的電話。詐騙者模擬他們孫子布蘭登的聲音,稱人在監獄,需要一筆保釋金。

AI技術正在讓冒名詐騙變得更容易,且成本更低。FTC最新統計結果顯示,冒名詐騙已經成為當下美國第二大熱門詐騙類型。2022年此類案件超過3.6萬起,其中約5000起為電話詐騙,損失金額超過1100萬美元。

加州大學伯克利分校數字取證學教授漢尼·法里德指出,AI技術的進步讓詐騙者能夠輕易地根據簡短的音頻樣本來複制聲音。「兩年前,你可能需要大量音頻來克隆一個人的聲音。但現在,只要你在臉書或者TikTok發一段超過30秒的音頻,複製聲音就可以迅速實現。」

聲音可以模仿,面容也可以替換,AI換臉早已不是新鮮事。美國遊戲主播Atrioc就發現自己的臉被「偷」了,有不法分子利用AI換臉技術製作她的不雅視頻,併發布在社交媒體上。崩潰的Atrioc試着向警方求助,等來的答覆卻是——她所在的州目前還沒有相關法律可約束或懲罰這樣的行為。

虛假信息混淆視聽

不只是普通人,在AI的騙術面前,一些媒體也難以招架。

英國《每日郵報》4月報道,一名22歲的加拿大年輕人爲了能在韓國娛樂圈出道,以某韓國男團成員的面容為模板,花了約22萬美元整容了12次,最后在韓國一家醫院不幸喪命。這則新聞一出,便引發了《紐約郵報》八卦版「第六頁」、加拿大媒體公司Postmedia等媒體的跟風報道。

但沒過多久,一些媒體進一步查證后發現,或許這根本就是個編造的故事,主人公可能並不存在。因為韓國媒體詢問警方后得到的回答是——當時並未收到類似的死亡案例報告。而檢測網站的結果顯示,這名加拿大年輕人的照片有75%可能由AI生成。

面對公眾質疑,《每日郵報》刪去了這則報道。但意外的是,5月又有媒體報道,這名年輕人的家人站出來證明他們兒子的死亡和報道的真實性。不過,這篇報道沒有提供任何實質性的證據,也沒有提供家人的真實信息和照片。

如今,這名年輕人的身份和報道的真偽依舊成謎。在自由撰稿人拉斐爾·拉希德看來,這件事向媒體人發出了警示,就是現在比以往任何時候都更需要在覈查事實、揭穿謠言以及問責方面發揮作用,提升自己的媒體素養和批判性思維能力。

AI生成的虛假信息還廣泛出現在政治領域。幾張特朗普在紐約街頭遭警察圍捕的圖片3月在社交平臺瘋傳,圖片中特朗普被警察抓住雙手摁倒在地,場面十分混亂。

而事實上,這些圖片均出自開源信息調查網站bellingcat創始人、英國獨立記者艾略特·希金斯之手。他利用AI繪圖軟件生成了特朗普被捕的圖片,「我只是在鬧着玩,原以為只有幾個人會轉發」。但令他沒有想到的是,這條推文的瀏覽量在兩天后就突破了500萬次。

如果説這些AI炮製的假新聞只是混淆了視聽,那還有些假新聞則對社會產生了實實在在的影響。

5月22日,一張五角大樓爆炸的AI生成圖在網絡上引起軒然大波。數字原創媒體Vox報道,在短短几天內,這一假圖片就引起了一陣恐慌,甚至在短時間內撼動了美國金融市場。

值得注意的是,用AI技術抹黑政治對手並不只是民主黨的伎倆。共和黨也曾使用AI製作一段30秒的視頻,呈現美國總統拜登連任后的場景:銀行紛紛倒閉、金融市場崩盤、舊金山被封鎖……用虛假的圖片和報道描繪了一系列危機。

人工智能公司「抱抱臉」安全和政策專家艾琳·索萊曼認為,AI已經被廣泛用於政治宣傳和操縱選舉,未來的道路將會十分艱難。觀察人士擔心,AI技術的快速普及可能會加劇2024年美國大選中虛假信息的傳播。美國聯邦眾議員伊維特·克拉克警告,「如果AI技術在大選中被用來大規模操縱和欺騙選民,將會對美國的國家安全造成嚴重后果」。

如何治理面臨挑戰

雖然自互聯網誕生以來,虛假信息就一直存在於網絡世界,但近年來隨着ChatGPT、Midjourney等AI工具的出現,以及Photoshop等繪圖軟件功能的更新,大規模生產超逼真的假圖像、視頻和文本變得更加容易便捷。

歐洲刑警組織一份報告預測,到2026年互聯網上多達90%的內容可能由AI創建或編輯。目前,完全由AI生成的假新聞網站已經出現,而且在短短几周內這些網站的數量就上漲了兩倍。

當AI造假的浪潮日益逼近,我們該如何分辨真偽、找尋真實?有媒體分析認為,或許應從技術研發、完善法律法規以及提高公眾意識和教育等層面入手。

有業內人士建議加強AI反制技術研究。眼下確實有一些科技企業正在加強對圖像、聲音偽造技術的反制研究,但到目前為止,並沒有一個通用的標準來識別真實或虛假的內容,AI反制技術要隨着AI技術的進步而不斷更新。

也有分析指出,AI技術的健康發展離不開相關法律法規的完善。例如,對於流媒體平臺上AI高度模仿歌手的行為,完善版權法或許是一個相對有效的策略。

另有專家表示,未來AI可根據大數據創造出無比接近真實的「真實」,要通過不斷的教育改變大眾觀念,讓人知道眼見不一定為實,有圖不一定有真相,對網絡信息提升辨識力。

儘管對「AI造假」的有效治理道阻且長,但不少國家和地區已經開始着手應對。德國《世界報》近日報道,歐盟正在採取行動打擊AI深度造假。歐盟委員會委員薇拉·堯羅娃表示,識別深度造假的技術已經存在,希望臉書、谷歌、TikTok等社交媒體平臺能夠大規模使用這些技術,並且通過軟件發出警報提醒用户,而這項規則以后也可能被納入歐盟正在制定的《人工智能法》。

誠然,AI技術的發展是把雙刃劍,一方面,它以驚人的速度在推進醫療技術、改善人類生活質量等領域發揮着積極作用;另一方面,它也帶來了一定的風險和挑戰。

在5月召開的伯克希爾-哈撒韋公司的年度股東大會上,「股神」巴菲特談及對AI的看法時流露擔憂。他表示,儘管發明AI的初衷是好的,「但當某種事物可以做各種各樣的事情時,我有點擔心」。他將人工智能比作原子彈:「在二戰期間,我們基於充分的理由發明了原子彈,但這項發明對未來世界而言,真的是件好事嗎?」

巴菲特認為,AI將改變世界上的一切,除了人類的思維和行為方式。或許,在這個AI飛速發展的時代,在真實和AI營造的虛幻之間,我們應該思考的,是如何保持一個具備獨立思維和理智思辨的頭腦。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。