APP下载

苹果证实从2019年就开始扫描iCloud邮件是否含有CSAM照片

消息来源:baojiabao.com 作者: 发布时间:2024-10-06

报价宝综合消息苹果证实从2019年就开始扫描iCloud邮件是否含有CSAM照片
图片来源: 

苹果

9to5Mac指出,苹果已向该报证实,该公司从2019年就开始扫描进出 iCloud Mail 的邮件是否含有儿童性剥削内容(Child Sexual Abuse Material,CSAM),也会扫描其它的部分,但并未包含iCloud Photos或iCloud备份。

苹果是在今年的8月初公开揭露,将于苹果各操作系统上植入杂凑的CSAM数据库,当使用者要上传照片到iCloud时,就会与该数据库进行比对,一旦符合CSAM数据库的照片数量达到30张,便会触发警报并进入人工审查阶段,再决定是否关闭该用户的账号或通报主管机关。

当各界都在质疑苹果此举触犯了使用者的隐私权,同时也替苹果平台留下后门之际,9to5Mac的编辑发现,苹果因与Epic Games打官司而曝光的文件中,苹果反诈骗长Eric Friedman在讯息中透露,脸书强力打击假账号,但在隐私上非常地糟糕,苹果刚好相反(非常注重隐私),但却让苹果成为散布儿童色情的最佳平台。

这段话吸引了9to5Mac的注意,好奇苹果怎么知道自家平台是散布儿童色情的最佳管道,于是询问了苹果,结果苹果证实了该公司的确自2019年,就开始扫描iCloud Mail的附加档案是否含有CSAM。

苹果还向9to5Mac坦承,除了iCloud Mail外,他们也扫描了其它少数的资料,但并不包括iCloud备份。

不过,就算如此,要宣称自己是散布儿童色情的最佳平台,总是得有其它的比较对象,那么其它平台如果不是借由扫描CSAM,又如何能封锁特定账号,或是检举用户呢?人们的隐私权在数位时代似乎很难保全。

2021-08-24 21:01:00

相关文章