当前位置:首页-正文

苹果开始审查iCloud相册识别儿童色情内容并与执法机构合作进行打击

涉及未成年人尤其是儿童色情内容无论在哪个国家都是重点打击对象,例如在美国涉及儿童色情是严重刑事案件。

尽管苹果强调自己的隐私与安全性,不过在对待儿童色情内容方面苹果也不会手软,该公司决定审查用户的相册。

当用户将图片同步到iCloud相册的时候 , 苹果将利用执法机构提供的数据库对图片进行比对以识别儿童色情内容。

被确定为涉及儿童色情的照片将被人工审核,再次审核确定后苹果将封禁账户并将信息提供给执法机构予以打击。

注:除苹果外诸如微软等其实也早就部署类似服务 , 如微软会检测 OneDrive中 的儿童色情内容通报给执法机构。

苹果开始审查iCloud相册识别儿童色情内容并与执法机构合作进行打击

苹果是如何审查用户相册内容的:

此类审查同时涉及iCloud相册和iMessage信息 , 若儿童用户使用iMessage传递色情信息会被苹果自动模糊处理。

模糊处理的同时苹果会直接通知儿童的父母由父母进行处理,此功能使用算法识别苹果不会直接获取消息的内容。

相册方面的审查方法是这样的:在图片上传前苹果会为图片审查哈希值,与执法机构提供的哈希数据库进行比对。

如果比对成功苹果则会创建加密安全凭证,该凭证与会图像共同上传,然后苹果开始监测这个加密凭证上传次数。

若凭证达到系统设定的阈值就会触发警报并且允许苹果进行解密,接下来苹果再通过工作人员对图片进行审核等。

这个过程实际就是打击儿童色情图片被上传和共享,凭证次数越多意味着特定的图片被苹果用户上传的次数越多。

当然紧靠哈希值进行匹配精度是不够的,苹果还使用神经网络哈希算法可以识别用户对图片添加文字或进行裁剪。

即便是添加文字和进行裁剪也会被苹果识别出来并添加对应的加密安全凭证,然后凭证再随着照片上传到服务器。

如何确保用户隐私内容不被泄露:

为解决潜在的隐私问题苹果使用的这种加密安全凭证技术可以阻止苹果解密图片,除非图片共享次数达到了阈值。

也就是说苹果自己并不能解密安全凭证因此无法读取图片,只有达到系统设定的阈值后苹果才可以解密安全凭证。

苹果自己不能读取其他机构更不能直接读取图片,所以关键就是阈值,不过苹果目前并未说明这个阈值具体多少。

据悉苹果将率先在iOS 15、iPadOS 15、watchOS 8以及 macOS Monterey 上部署该技术 , 并首先在美国施行。

感谢您的阅读,本文为蓝点网原创内容,转载时请标注来源于蓝点网和本文链接

相关文章

换一批