繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

幾秒就能完成人肉搜索,Meta將智能眼鏡與人臉搜索結合引發隱私擔憂

2024-10-03 13:57

前不久,Meta 舉行了年度開發者大會(Meta Connect 2024)。

在 AI 的加持下,虛擬現實(VR,Virtual Reality)頭顯 Quest 3S 和增強現實(AR,Augmented Reality)眼鏡 Orion 格外引人注目。

Meta 還在大會上宣佈了對現有雷朋智能 眼鏡(Ray Bans)的升級,使其獲得了更多的 AI 功能。

這款智能眼鏡是 AI 領域最暢銷消費級硬件產品之一,預計今年的出貨量將超過 200 萬台。

不過,圍繞Meta 和這款智能眼鏡的隱私討論一直存在:一方面是設備可能被濫用的安全隱患,另一方面則是數據使用的透明度問題。

最近,美國哈佛大學兩名學生安福·阮(AnhPhu Nguyen)和凱恩·阿達菲奧(Caine Ardayfio)進行了一項技術實驗。

他們成功地將 Meta 雷朋智能眼鏡與人臉搜索引擎 PimEyes 結合,開發出了一款名為 I-XRAY 的系統。

圖 | I-XRAY 的介紹(來源:資料圖) 圖 | I-XRAY 的介紹(來源:資料圖)

這個系統能夠僅通過觀察(捕捉人臉)就獲取陌生人的個人信息,包括姓名、地址和電話號碼等隱私數據。

通過結合大模型的強大功能,該系統能夠在幾秒鍾內完成對目標人物的信息收集和整合,這在過去可能需要耗費大量時間才能完成。

他們選擇了Meta 在 2023 年發佈的第二代智能眼鏡作為實驗設備,原因也很簡單,即這款眼鏡與普通眼鏡外觀幾乎沒有區別。

此外,他們還在實驗過程中遮蓋了眼鏡錄製時會自動亮起的指示燈,因此數據採集更加隱蔽,旁人難以發現。

在地鐵站進行的實地測試中,他們成功識別了數十位路人的身份信息,並能夠利用獲取的信息假裝是目標人物的熟人,來與其互動。

這種行為引發了人們對隱私泄露和個人安全的擔憂。

安福在社交平臺 X 上表示,爲了防止任何人被人肉搜索或技術被濫用,他們選擇不公佈代碼。

但他們在一份谷歌文檔中概述了工作原理,以及測試對象(隨機路人)發現自己的隱私信息如此輕易地被挖掘出來后的震驚。

兩位哈佛學生還強調,他們公開這項研究的主要目的是提高人們對隱私保護的認識。

他們還給出了從 PimEyes 等反向人臉搜索引擎中刪除個人信息的詳細指南,以及從 FastPeopleSearch、CheckThem 和 Instant Checkmate 等人物搜索數據庫中移除個人數據的具體方法。

與此同時,Meta 在 AI 訓練數據的使用政策也引發了爭議。

據Meta 政策傳播經理埃米爾·瓦茲奎茲(Emil Vazquez)透露,任何經過 Meta AI 分析的圖像都可能被用於 AI 訓練。

這一政策的影響範圍極其廣泛,因為它不僅包括用户主動分享的內容,還包括通過智能眼鏡的 AI 功能進行分析的所有圖像和視頻。

更令人擔憂的是,Meta 最近推出的實時視頻分析功能,會持續將圖像傳輸給 AI 模型。

該公司在今年的開發者大會上展示了這項新功能,用户可以通過它來分析衣櫥內容並獲取穿搭建議。

然而,該公司並未在推廣時明確指出這些數據會被用於模型訓練。這種信息不對等的狀況,引發了用户對數據使用透明度的質疑。

(來源:Meta) (來源:Meta)

Meta的數據保護歷史,導致人們難以對其保持信任。

該公司此前因在 Facebook 上使用面部識別技術而陷入法律糾紛,最終以支付 14 億美元和解金收場。

值得注意的是,Meta 的隱私政策還規定,公司默認會儲存所有通過 Ray-Ban Meta 進行的語音對話記錄,用於訓練未來的 AI 模型。

雖然用户可以選擇退出語音錄音的訓練用途,但這種默認加入的機制本身就值得商榷。

在歐盟,由於《通用數據保護條例》的存在,收集面部識別數據通常需要獲得當事人的同意,這在某種程度上限制了類似 I-XRAY 的技術。

但是在美國,由於缺乏統一的隱私保護法案,這類技術很容易被不法分子利用。

業內人士特別提到,Clearview AI 等公司正在開發類似的面部識別智能眼鏡。此前,該公司曾因隱私違規被罰款 3300 萬美元。

然而,Meta 和 PimEyes 對這些隱私擔憂的迴應,似乎有些輕描淡寫。

Meta 對媒體表示,這些風險與個人照片發佈在網上的風險相同,而 PimEyes 則聲稱,他們的服務並不會「識別」個人,只是提供照片鏈接。

這一系列事件凸顯了智能設備、AI 技術與個人隱私保護之間的複雜關係。

在科技快速發展的今天,如何在技術創新與保護個人隱私之間取得平衡,已經成為一個亟待解決的重要課題。無論是科技公司、監管機構還是普通用户,都需要認真思考這個問題。

而對於普通用户來説,目前最有效的保護措施是謹慎使用 AI 分析功能,並主動從各類數據庫中刪除個人信息。

參考資料:

https://arstechnica.com/tech-policy/2024/10/harvard-students-make-auto-doxxing-smart-glasses-to-show-need-for-privacy-regs/

https://techcrunch.com/2024/10/02/meta-confirms-it-may-train-its-ai-on-any-image-you-ask-ray-ban-meta-ai-to-analyze/

排版:劉雅坤

01/

02/

03/

04/

05/

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。