fbpx

蘋果推行兒童安全審查機制 CSAM 反對者批「大規模監控」

蘋果推行兒童安全審查機制 CSAM 反對者批「大規模監控」
                                       

當地時間 8 月 5 日,蘋果公司宣布正與專家合作開發全新的兒童安全功能,其中「掃描有關兒童受性虐待材料之相片」(簡稱 CSAM)的功能引起爭議,系統會自動找出 iCloud 上存在兒童色情的相關內容,並且向相關單位回報。隱私倡導人士史諾登(Edward Joseph Snowden)認為,儘管立意良善,也無法粉飾科技巨擘正在進行大規模監控的事實。

▼ 除了 CSAM,蘋果也在 iMessage 加入過濾功能,避免兒童接觸色情圖片,若有人透過 Siri 或者搜尋功能查找 CSAM 的相關詞彙,系統會主動干預。新功能預計今年年底於 iOS 15、iPadOS 15、macOS Monterey 上推出。

 

事實上,許多知名的雲端儲存商都運用類似的審核機制,包括微軟、Google、Dropbox。今年 7 月,臺灣一名 20 歲男子將偷拍未成年親戚的裸照上傳至 Google 雲端硬碟,後來被審查機制發現,Google 隨後向我國刑事局通報(但結果不盡圓滿)。

注重使用者隱私的蘋果,一直以來都不願掃描使用者在雲端中的文件,甚至在文件傳輸 iCloud 時進行加密,因此蘋果也不知道你在 iCloud 上存放的內容。

CSAM 等於是打破蘋果多年堅持的原則,但蘋果強調,該機制運用的檢測技術「NeuralHash」會在裝置上執行,機制類似於台灣社交距離 APP:

使用者照片上傳 iCloud 之前,蘋果會將伺服器端的受虐兒童照片資料庫傳送給裝置,讓使用者照片與資料庫進行比對,其中資料庫照片會由亂碼組成,目的是保護受虐兒童隱私;一旦比對結果超出臨界值,裝置會自動回報,並授權給蘋果瀏覽內容權限,下一步進入人工審查,確認有違法情事,公司才會通報給 NCMEC。

 

這套看似滴水不露的審核機制,卻引起安全研究人員及多方人士的擔憂。有專家認為,政府可能為達到某種政治目的,會強迫蘋果將反動人士名單加進 CSAM 圖片資料庫。知名的「吹哨者」史諾登也毫不留情指出:「無論出於何種善意,蘋果都在向全世界發起大規模監控。如果今天他們可以掃描兒童色情內容,那明天也能掃描任何內容。」

 

觀察到外界擔憂,蘋果進一步作出解釋,指出 CSAM 檢測機制上線初期僅限美國地區,這套機制在進入某國家前,公司會進行評估。此外,CSAM 存在人工審查機制,過濾系統的錯誤判定。

同時,也有團體支持蘋果的作法。家庭線上安全研究所執行長 Stephen Balkam 表示:「鑒於兒童在保護孩子上網所面臨的挑戰,科技公司必須不斷改進他們的安全工具,應對新的風險與實際危害。」

 

 

(標圖來源:攝影師 Junior Teixeira連結 Pexels

iOS 軟體

叫我小高就好了。聯絡方式:8bitgaoooo@gmail.com

More in iOS 軟體

iOS 17.4 正式版更新:Podcast 加入逐字稿 還有鳳凰表情符號

Candice Chao2024-03-06

只有台灣看得到!元宵節聊天室特效登場

Candice Chao2024-02-24

【推薦】2024年10款好用的多功能免費影片剪輯軟體 (Windows / Mac)

AD2024-02-20

在 iPhone 聽 Podcast 也能有逐字稿? 連內容都能翻譯

Candice Chao2024-02-11
Apple Watch 手電筒

暗摸摸看不到?Apple Watch秒變手電筒(還有紅光選擇

Candice Chao2024-02-09
iOS17

iPhone 自製貼紙刪除教學: 一張一張與批量刪除都可以

Candice Chao2024-02-08