APP下载

研究人员揭露苹果扫描机制含有安全漏洞,苹果:那不是苹果所采用的版本

消息来源:baojiabao.com 作者: 发布时间:2024-10-06

报价宝综合消息研究人员揭露苹果扫描机制含有安全漏洞,苹果:那不是苹果所采用的版本
图片来源: 

苹果

苹果计划在今年问世的iOS中嵌入儿童色情扫描机制,以遏制儿童性剥削内容(Child Sexual Abuse Material,CSAM)的散布,然而,隐私与安全专家群起反对,本周一名GitHub用户Asuhariet Ygvar公布了苹果用来将CSAM加密的NeuralHash杂凑技术模型,几小时后就有另一名用户Cory Cornelius找到该算法的漏洞,制造了杂凑碰撞(Hash Collisions),让两张不同的图片产生一样的加密指纹,然而,苹果向Motherboard表示,Ygvar所公布的NeuralHash是通用版,并非苹果所采用的版本。

苹果准备在iOS 15、iPadOS 15、watchOS 8与macOS Monterey等操作系统上嵌入CSAM数据库,并透过NeuralHash将数据库中的照片转换成独立的加密金钥,当使用者要将照片上传到iCloud时,系统就会将该照片与CSAM数据库进行比对,在符合的笔数达到30笔之后,就会触动警报,再改由人工手动检查这些照片,决定是否通报主管机关或关闭使用者账号。

虽然苹果的用意是为了保护儿童,但隐私与安全专家却认为此事不可为,认为CSAM侦测功能将成为苹果操作系统的后门,已有超过8,000名GitHub用户连署反对,电子前线基金会(Electronic Frontier Foundation,EFF)亦于近日发动连署。

在反对之余,资安专家也详细检视苹果的作法,包括NeuralHash在内。尽管苹果宣称未来的操作系统使用的是苹果变更过的NeuralHash版本,而不是Ygvar所公布的版本,但约翰霍普金斯大学的密码学教授Matthew Green认为,碰撞既然会发生在一般版的NeuralHash,应该也会发生在苹果的版本上。

只不过,目前看来NeuralHash的碰撞并不会对CSAM的侦测带来太多问题,因为它顶多可把非CSAM的图片标记成CSAM图片,快速达到跳出警告的30张门槛,造成手动检查人员的困扰。

即使外界的反对声浪不断,惟迄今苹果仍尚未释出可能改变心意的讯息。

2021-08-19 17:45:00

相关文章