APP下载

苹果计划侦测装置用户的讯息与iCloud上有关儿童色情的内容,遭EFF抨击入侵民众隐私

消息来源:baojiabao.com 作者: 发布时间:2024-10-08

报价宝综合消息苹果计划侦测装置用户的讯息与iCloud上有关儿童色情的内容,遭EFF抨击入侵民众隐私
图片来源: 

苹果

苹果在本周公布了全新的儿童保护措施,将会侦测Messages与用户iCloud上的内容是否牵涉到儿童色情,也将更新Siri与搜寻功能,以在使用者搜寻儿童色情内容时加以干预。不过,苹果的作法让拥护使用者数位权利的电子前线基金会(Electronic Frontier Foundation,EFF)警告,此举的代价为使用者的隐私,且将替苹果装置带来后门。

苹果的儿童保护措施主要有3项,一是于iOS、iPadOS与macOS上内建的Messages程式增添新工具,锁定那些采用家庭账号的使用者,透过装置上的机器学习机制来分析Messages程式所传递的内容,假设儿童所收到的讯息包含了色情图片,那么苹果就会模糊该照片并祭出警告,也提醒若儿童执意检视照片,系统就会传讯息给家长,同样的,若是儿童企图发送色情图片,系统也会事先祭出将会通知家长的警告。

苹果表示,所有的分析都在使用者的装置上进行,苹果并不会得知内容,此一功能将会在今年随着iOS 15、iPadOS 15与macOS Monterey出炉而上线,将率先于美国市场推出。

第二个措施则是避免儿童性剥削内容的散布,苹果将利用iOS与iPadOS上的新技术,来侦测使用者储存于iCloud上的照片是否属于已知的儿童性剥削内容(Child Sexual Abuse Material,CSAM),这是由美国失踪儿童及童工保护中心(National Center for Missing and Exploited Children,NCMEC)所建立的数据库。

苹果的作法并非直接扫描用户存放于iCloud上的照片,而是先将CSAM数据库转存为不可读的杂凑组,再把它上传到使用者的装置上,当使用者要把照片存放至iCloud时,就会透过一个名为私有集合交集(Private Set Intersection)的加密技术,与装置上的CSAM数据库进行比对,并在每一张上传至iCloud的照片上,附上一个含有比对结果的加密凭证。

一直到当符合CSAM数据库的照片达到一定数量时,苹果才会收到通知,也才会进一步解析这些内容,并手动检查这些照片是否真为儿童色情,继之苹果即会关闭该名使用者的账号,并向NCMEC检举。

最后一项则是改善苹果装置上的Siri与搜寻功能,当有使用者查询与CSAM有关的内容时,苹果将会向用户解释相关主题是有害及有问题的,并提供可能对用户有所帮助的资源。此一功能将同时现身于iOS 15、iPadOS 15、watchOS 8与macOS Monterey上。

虽然苹果的立意良善,但EFF却认为,这是替苹果的资料储存系统及传讯系统建立后门的作法。

在2016年时,美国联邦调查局(FBI)曾要求苹果协助解锁恐怖攻击嫌犯的iPhone手机,当时遭苹果首席执行官Tim Cook断然拒绝,Cook还曾发表公开信,指责FBI要求苹果打造出一款可绕过现有安全机制的iPhone操作系统,只要是可以绕过安全机制的iOS就是创造了后门,且这个操作系统很可能可以破解所有人的iPhone。

而今苹果的作法似乎违背了当初的坚持。EFF表示,假设苹果得以利用机器学习来分析用户所传递的内容,现在这个内容是儿童色情,但只要些微的调整就可用来寻找其它型态的内容,而且既然得以分析儿童,就能分析所有人,当苹果遭到外来的压力时,就无法再以不创造后门来推辞。

尽管苹果向来拥护端对端加密,然而,相关的变更却可能让标榜端对端加密的Messages在法令的压力下,迫使苹果于Messages执行筛选、检举或删除等能力。EFF强调,即使苹果现在的作法是一个经过深思熟虑、拥有完整文件且范围狭窄的后门,但它仍然是一个后门,而且是以所有人的隐私为代价。

2021-08-06 16:46:00

相关文章