輿論壓力太強大!Apple 蘋果宣布延遲推出 CSAM 兒童保護功能

「加三嘻行動哇 Yipee! 成為好友」

FacebookYoutubeTwitterInstagramTelegramLine

Apple 蘋果在 2021 年 8 月初宣布將在 iPhone、iPad 和 Mac 加入保護兒童安全的新功能,其中一項就是在 iCloud Photos 加入檢測 CSAM 兒童性虐待照片。

然而由於 CSAM 功能爭議太大,又與 Apple 蘋果標榜客戶隱私的承諾牴觸,全球輿論發酵下,如今蘋果宣布將延遲推出 CSAM 兒童保護功能。

Apple 蘋果在 8 月上旬宣布將在 iCloud 照片進行 CSAM 檢測技術,這項技術目的是為了保護客戶的隱私,同時滿足政府機構在調查恐怖主義和兒童色情內容方面的需求,並計劃在 iOS 15、iPadOS 15 和 macOS Monterey 更新時一同發布。

同時蘋果更進一步證實,自 2019 年迄今蘋果會掃描 iCloud 郵件是否存在 CSAM 兒童性虐待材料內容。

無論 Apple 蘋果如何辯解與說明,CSAM 檢測技術卻受到各大新聞及科技媒體、安全研究人員、揭密者 Edward Snowden、WhatsApp 執行長 Will Cathcart …等一面倒的批評與反對,也令不少蘋果員工與使用者擔心政府機關會利用 CSAM 檢測搜尋其他內容,甚至讓蘋果公司保護客戶隱私的承諾蕩然無存。

在排山倒海的輿論下,Apple 蘋果日前發表聲明宣布,「上個月宣布了一些新功能計劃,目的是幫助保護兒童免受『利用通訊工具招募和剝削他們的掠奪者』的傷害,並限制兒童性虐待材料的傳播。根據客戶、倡導團體、研究人員和其他人的意見,Apple 蘋果決定在未來幾個月內花更多時間收集意見並進行改進,然後再發布這些至關重要的兒童安全功能。」

從聲明來看蘋果決定延遲推出 CSAM 檢測,就代表妥協,但是蘋果在聲明裡強調這項功能至關重要,似乎暗示著公司未來仍有可能進行 iCloud 照片的 CSAM 檢測技術,只是不確定發布時間。

延伸閱讀:

為保護兒童!Apple 將在 iMessage 及 iCloud 照片加入 CSAM 兒童色情照片偵測功能

WhatsApp 執行長反對 Apple 掃描使用者照片,認為是隱私倒退

部落客用樹莓派 DIY 改造升降辦公桌,讓它能在自訂時間排程升降

網路釣魚詐騙盯上 WhatsApp ,但對攻擊 Google Hangouts 興趣缺缺?

Apple 蘋果堅定 App 追蹤透明度立場,禁止多款使用 CAID 廣告標識技術的 App 上架

圖片及資料來源:thehackernewsMacRumors

好友人數

大家對網站文章上的一個讚、+1及轉分享,都是對我們的最好的鼓勵及繼續下去的原動力,請大家不要吝嗇。

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料

下一頁

【免費】你的 1922 簡訊實聯制曾經被調閱嗎?快輸入手機號碼查看看吧!

週一 9 月 6 , 2021
「加三嘻行動哇 Yipee! 成為好友」 【Facebook、Youtube、Twitter、Ins […]
Shares