熱門資訊> 正文
2024-12-09 07:04
IT之家 12 月 9 日消息,蘋果公司因在 2022 年取消原定的兒童性虐待材料(CSAM)檢測計劃而被起訴。一位童年時期曾遭受性虐待的 27 歲女性以化名起訴蘋果,指控其違背了保護受害者的承諾。
蘋果在 2021 年末曾宣佈計劃通過設備端哈希值系統掃描 iCloud 中的圖片,以檢測和阻止 CSAM 傳播,並在用户發送或接收含裸露內容的照片時發出警告。目前,裸露內容檢測功能(Communication Safety)仍然存在,但 CSAM 檢測功能因隱私專家、兒童安全組織和政府的廣泛反對被取消。
起訴者稱,她在 CSAM 檢測功能仍在時,曾接到執法部門的通知,發現她遭受性虐待的圖片通過一臺在佛蒙特州查獲的 MacBook 被上傳至了 iCloud。她在訴訟中表示,蘋果停止這一功能的決定使這些材料得以廣泛傳播,蘋果因此向消費者銷售了「有缺陷的產品」,對像她這樣的用户羣體造成了傷害。
據該女子的一名律師稱,原告要求蘋果改變其做法,並向可能多達 2680 名其他符合條件的受害者提供賠償,此類受害者有權根據法律獲得至少每人 15 萬美元的賠償。如果全部受害者成功獲得賠償,蘋果的賠償金額可能超過 12 億美元(IT之家備註:當前約 87.28 億元人民幣)。
類似的案件已在北卡羅來納州發生。一名 9 歲的 CSAM 受害者指控蘋果,稱她通過 iCloud 鏈接收到陌生人發送的非法視頻,並被鼓勵拍攝並上傳類似內容。蘋果公司提出了一項駁回案件的動議,指出聯邦法規第 230 條保護其免於對用户上傳到 iCloud 的材料承擔責任。但近期法院裁定,這一法律保護僅適用於積極內容審覈的情形,可能削弱蘋果的抗辯理由。
針對新訴訟,蘋果發言人弗雷德・塞恩茲表示:「蘋果認為兒童性虐待材料令人發指,我們致力於在不損害用户隱私和安全的前提下積極打擊相關犯罪。」他提到蘋果擴展了信息應用中的裸露內容檢測功能,並允許用户舉報有害材料。然而,原告及其律師瑪格麗特・馬比認為,蘋果的措施遠遠不夠。
馬比表示,她通過執法報告和相關文件發現了超過 80 起與受害者圖像及蘋果產品相關的案例,其中一個分享這些圖像的人是一名灣區男子,其 iCloud 賬户中存儲了超過 2,000 張非法圖片和視頻。