蘋果兒童色情照審查政策轉彎 宣布限縮偵測範圍 盼平息隱私爭議

蘋果 (AAPL-US) 計劃推出兒童色情照舉報系統招致輿論批評後,周五 (13 日) 宣布更新圖像偵測計畫,表示未來只會偵測被多國標註的兒童色情照片,確保手機上偵測圖像的清單相同,不會針對個人。

蘋果上周宣布將藉由分散資料串比對,確認美國用戶上傳至 iCloud 的照片是否違規,但此舉引發社會對隱私權的擔憂。部分人士更認為政府可能會迫使蘋果將該系統擴大至其他用途,例如掃描被禁止的政治圖像,蘋果內部員工也議論紛紛。

蘋果高層原本拒絕透露,手機或電腦需要偵測到多少張涉及兒童色情的照片,系統就會啟動人工審查甚至向當局舉報。不過蘋果周五表示,為了避免誤報,偵測照片的數量初期設定在 30 張圖,預料隨著系統改進,數量會逐步減少。

蘋果為了消除人們對新機制的隱私疑慮,表示研究員能夠輕鬆確保一部 iPhone 正在辨識的圖像與其他手機上的清單相同,不會針對個人審查。不過蘋果也承認,有關該計畫的公開溝通做得不夠好,才會讓科技政策組織甚至員工心生疑慮。

蘋果拒絕透露這些批評是否促使公司修改政策或軟體,僅表示該專案仍在開發階段。

蘋果最新說法和新提供的許多細節,緩和了外界對隱私權的隱憂,並說服一些批評者相信他們迫使蘋果做出改變。史丹佛大學的加密、監控研究員 Riana Pfefferkorn 表示:「我們的推動正在產生效果。」


延伸閱讀

相關貼文

prev icon
next icon