「加三嘻行動哇 Yipee! 成為好友」
【Facebook、Youtube、Twitter、Instagram、Telegram、Line】
Apple 蘋果在 2021 年 8 月初宣布將在 iPhone、iPad 和 Mac 加入保護兒童安全的新功能,其中一項就是在 iCloud Photos 加入檢測 CSAM 兒童性虐待照片。
然而由於 CSAM 功能爭議太大,又與 Apple 蘋果標榜客戶隱私的承諾牴觸,全球輿論發酵下,如今蘋果宣布將延遲推出 CSAM 兒童保護功能。
Apple 蘋果在 8 月上旬宣布將在 iCloud 照片進行 CSAM 檢測技術,這項技術目的是為了保護客戶的隱私,同時滿足政府機構在調查恐怖主義和兒童色情內容方面的需求,並計劃在 iOS 15、iPadOS 15 和 macOS Monterey 更新時一同發布。
同時蘋果更進一步證實,自 2019 年迄今蘋果會掃描 iCloud 郵件是否存在 CSAM 兒童性虐待材料內容。
無論 Apple 蘋果如何辯解與說明,CSAM 檢測技術卻受到各大新聞及科技媒體、安全研究人員、揭密者 Edward Snowden、WhatsApp 執行長 Will Cathcart …等一面倒的批評與反對,也令不少蘋果員工與使用者擔心政府機關會利用 CSAM 檢測搜尋其他內容,甚至讓蘋果公司保護客戶隱私的承諾蕩然無存。
在排山倒海的輿論下,Apple 蘋果日前發表聲明宣布,「上個月宣布了一些新功能計劃,目的是幫助保護兒童免受『利用通訊工具招募和剝削他們的掠奪者』的傷害,並限制兒童性虐待材料的傳播。根據客戶、倡導團體、研究人員和其他人的意見,Apple 蘋果決定在未來幾個月內花更多時間收集意見並進行改進,然後再發布這些至關重要的兒童安全功能。」
從聲明來看蘋果決定延遲推出 CSAM 檢測,就代表妥協,但是蘋果在聲明裡強調這項功能至關重要,似乎暗示著公司未來仍有可能進行 iCloud 照片的 CSAM 檢測技術,只是不確定發布時間。
延伸閱讀:
為保護兒童!Apple 將在 iMessage 及 iCloud 照片加入 CSAM 兒童色情照片偵測功能
WhatsApp 執行長反對 Apple 掃描使用者照片,認為是隱私倒退
部落客用樹莓派 DIY 改造升降辦公桌,讓它能在自訂時間排程升降
網路釣魚詐騙盯上 WhatsApp ,但對攻擊 Google Hangouts 興趣缺缺?
Apple 蘋果堅定 App 追蹤透明度立場,禁止多款使用 CAID 廣告標識技術的 App 上架
圖片及資料來源:thehackernews、MacRumors