系統會自動找出 iCloud 上存在兒童色情的相關內容,並且向相關單位回報。隱私倡導人士史諾登(Edward Joseph Snowden)認為,儘管立意良善,也無法粉飾科技巨擘正在進行大規模監控的事實。
▼ 除了 CSAM,蘋果也在 iMessage 加入過濾功能,避免兒童接觸色情圖片,若有人透過 Siri 或者搜尋功能查找 CSAM 的相關詞彙,系統會主動干預。新功能預計今年年底於 iOS 15、iPadOS 15、macOS Monterey 上推出。
事實上,許多知名的雲端儲存商都運用類似的審核機制,包括微軟、Google、Dropbox。今年 7 月,臺灣一名 20 歲男子將偷拍未成年親戚的裸照上傳至 Google 雲端硬碟,後來被審查機制發現,Google 隨後向我國刑事局通報(但結果不盡圓滿)。
注重使用者隱私的蘋果,一直以來都不願掃描使用者在雲端中的文件,甚至在文件傳輸 iCloud 時進行加密,因此蘋果也不知道你在 iCloud 上存放的內容。
CSAM 等於是打破蘋果多年堅持的原則,但蘋果強調,該機制運用的檢測技術「NeuralHash」會在裝置上執行,機制類似於台灣社交距離 APP:
使用者照片上傳 iCloud 之前,蘋果會將伺服器端的受虐兒童照片資料庫傳送給裝置,讓使用者照片與資料庫進行比對,其中資料庫照片會由亂碼組成,目的是保護受虐兒童隱私;一旦比對結果超出臨界值,裝置會自動回報,並授權給蘋果瀏覽內容權限,下一步進入人工審查,確認有違法情事,公司才會通報給 NCMEC。
這套看似滴水不露的審核機制,卻引起安全研究人員及多方人士的擔憂。有專家認為,政府可能為達到某種政治目的,會強迫蘋果將反動人士名單加進 CSAM 圖片資料庫。知名的「吹哨者」史諾登也毫不留情指出:「無論出於何種善意,蘋果都在向全世界發起大規模監控。如果今天他們可以掃描兒童色情內容,那明天也能掃描任何內容。」
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
— Edward Snowden (@Snowden) August 6, 2021
觀察到外界擔憂,蘋果進一步作出解釋,指出 CSAM 檢測機制上線初期僅限美國地區,這套機制在進入某國家前,公司會進行評估。此外,CSAM 存在人工審查機制,過濾系統的錯誤判定。
同時,也有團體支持蘋果的作法。家庭線上安全研究所執行長 Stephen Balkam 表示:「鑒於兒童在保護孩子上網所面臨的挑戰,科技公司必須不斷改進他們的安全工具,應對新的風險與實際危害。」
(標圖來源:攝影師 Junior Teixeira、連結 Pexels)