fbpx

蘋果推行兒童安全審查機制 CSAM 反對者批「大規模監控」

蘋果推行兒童安全審查機制 CSAM 反對者批「大規模監控」
                                       

當地時間 8 月 5 日,蘋果公司宣布正與專家合作開發全新的兒童安全功能,其中「掃描有關兒童受性虐待材料之相片」(簡稱 CSAM)的功能引起爭議,系統會自動找出 iCloud 上存在兒童色情的相關內容,並且向相關單位回報。隱私倡導人士史諾登(Edward Joseph Snowden)認為,儘管立意良善,也無法粉飾科技巨擘正在進行大規模監控的事實。

▼ 除了 CSAM,蘋果也在 iMessage 加入過濾功能,避免兒童接觸色情圖片,若有人透過 Siri 或者搜尋功能查找 CSAM 的相關詞彙,系統會主動干預。新功能預計今年年底於 iOS 15、iPadOS 15、macOS Monterey 上推出。

 

事實上,許多知名的雲端儲存商都運用類似的審核機制,包括微軟、Google、Dropbox。今年 7 月,臺灣一名 20 歲男子將偷拍未成年親戚的裸照上傳至 Google 雲端硬碟,後來被審查機制發現,Google 隨後向我國刑事局通報(但結果不盡圓滿)。

注重使用者隱私的蘋果,一直以來都不願掃描使用者在雲端中的文件,甚至在文件傳輸 iCloud 時進行加密,因此蘋果也不知道你在 iCloud 上存放的內容。

CSAM 等於是打破蘋果多年堅持的原則,但蘋果強調,該機制運用的檢測技術「NeuralHash」會在裝置上執行,機制類似於台灣社交距離 APP:

使用者照片上傳 iCloud 之前,蘋果會將伺服器端的受虐兒童照片資料庫傳送給裝置,讓使用者照片與資料庫進行比對,其中資料庫照片會由亂碼組成,目的是保護受虐兒童隱私;一旦比對結果超出臨界值,裝置會自動回報,並授權給蘋果瀏覽內容權限,下一步進入人工審查,確認有違法情事,公司才會通報給 NCMEC。

 

這套看似滴水不露的審核機制,卻引起安全研究人員及多方人士的擔憂。有專家認為,政府可能為達到某種政治目的,會強迫蘋果將反動人士名單加進 CSAM 圖片資料庫。知名的「吹哨者」史諾登也毫不留情指出:「無論出於何種善意,蘋果都在向全世界發起大規模監控。如果今天他們可以掃描兒童色情內容,那明天也能掃描任何內容。」

 

觀察到外界擔憂,蘋果進一步作出解釋,指出 CSAM 檢測機制上線初期僅限美國地區,這套機制在進入某國家前,公司會進行評估。此外,CSAM 存在人工審查機制,過濾系統的錯誤判定。

同時,也有團體支持蘋果的作法。家庭線上安全研究所執行長 Stephen Balkam 表示:「鑒於兒童在保護孩子上網所面臨的挑戰,科技公司必須不斷改進他們的安全工具,應對新的風險與實際危害。」

 

 

(標圖來源:攝影師 Junior Teixeira連結 Pexels

iOS 軟體

叫我小高就好了。聯絡方式:8bitgaoooo@gmail.com

More in iOS 軟體

IG 如何隱藏貼文的按讚數?

高伯任2021-09-18

Apple iOS 15 、iPadOS 15 與 watchOS 8 將在 9/21 開放用戶更新

Candice2021-09-15

加密郵件服務商 ProtonMail 向當地警方提供法國抗議者 IP 位址

高伯任2021-09-07

德國將要求手機製造商提供 7 年的軟體更新

高伯任2021-09-06

買火車票也能用 Apple Pay! 台鐵 e 訂通推出 2 大新功能

Candice2021-09-06

Telegram 教學:如何避免被加入陌生群組?

高伯任2021-09-03