蘋果推行兒童安全審查機制 CSAM 反對者批「大規模監控」

系統會自動找出 iCloud 上存在兒童色情的相關內容,並且向相關單位回報。隱私倡導人士史諾登(Edward Joseph Snowden)認為,儘管立意良善,也無法粉飾科技巨擘正在進行大規模監控的事實。

▼ 除了 CSAM,蘋果也在 iMessage 加入過濾功能,避免兒童接觸色情圖片,若有人透過 Siri 或者搜尋功能查找 CSAM 的相關詞彙,系統會主動干預。新功能預計今年年底於 iOS 15、iPadOS 15、macOS Monterey 上推出。

 

事實上,許多知名的雲端儲存商都運用類似的審核機制,包括微軟、Google、Dropbox。今年 7 月,臺灣一名 20 歲男子將偷拍未成年親戚的裸照上傳至 Google 雲端硬碟,後來被審查機制發現,Google 隨後向我國刑事局通報(但結果不盡圓滿)。

注重使用者隱私的蘋果,一直以來都不願掃描使用者在雲端中的文件,甚至在文件傳輸 iCloud 時進行加密,因此蘋果也不知道你在 iCloud 上存放的內容。

CSAM 等於是打破蘋果多年堅持的原則,但蘋果強調,該機制運用的檢測技術「NeuralHash」會在裝置上執行,機制類似於台灣社交距離 APP:

使用者照片上傳 iCloud 之前,蘋果會將伺服器端的受虐兒童照片資料庫傳送給裝置,讓使用者照片與資料庫進行比對,其中資料庫照片會由亂碼組成,目的是保護受虐兒童隱私;一旦比對結果超出臨界值,裝置會自動回報,並授權給蘋果瀏覽內容權限,下一步進入人工審查,確認有違法情事,公司才會通報給 NCMEC。

 

這套看似滴水不露的審核機制,卻引起安全研究人員及多方人士的擔憂。有專家認為,政府可能為達到某種政治目的,會強迫蘋果將反動人士名單加進 CSAM 圖片資料庫。知名的「吹哨者」史諾登也毫不留情指出:「無論出於何種善意,蘋果都在向全世界發起大規模監控。如果今天他們可以掃描兒童色情內容,那明天也能掃描任何內容。」

 

觀察到外界擔憂,蘋果進一步作出解釋,指出 CSAM 檢測機制上線初期僅限美國地區,這套機制在進入某國家前,公司會進行評估。此外,CSAM 存在人工審查機制,過濾系統的錯誤判定。

同時,也有團體支持蘋果的作法。家庭線上安全研究所執行長 Stephen Balkam 表示:「鑒於兒童在保護孩子上網所面臨的挑戰,科技公司必須不斷改進他們的安全工具,應對新的風險與實際危害。」

 

 

(標圖來源:攝影師 Junior Teixeira連結 Pexels

其他

熱愛遊戲,但很少破關,喜愛日本時裝,但大多買不起,雖然到了看表演會避開衝撞區的年紀,仍會為新科技和漫威電影感到興奮。
聯絡方式:8bitgaoooo@gmail.com

More in 其他

Insta360 Go 3S 動手玩!升級 4K 畫質,配件更好用!真心大推!

Kisplay2024/07/07

台灣手機備份品牌 Maktar 東京發表會 結合快充備份和外部儲存 新品 Qubii Power 秀超強功能

Daphne2024/07/05

2030 達全電車目標 Volvo 還能延續瑞典坦克稱號?

Kisplay2024/07/05

New Defender OCTA 極致性能全地形新標竿

Kisplay2024/07/05

徠卡 D-Lux 8 攜帶型相機正式上市 變焦鏡頭與經典設計結合

Kisplay2024/07/05

福容徠旅/鄰近機場捷運線與三井Outle t/有三溫暖跟24小時點心吧 ~

小佳2024/07/04
-->
一起用好點子過好生活吧!