苹果推出iOS 15.5正式版 CASM儿童色情扫描功能扩展到更多国家
苹果昨晚开始向用户推出iOS 15.5正式版,此版本功能方面倒是没什么值得关注的,但安全方面有功能更新。
这个功能更新就是将CASM安全通信功能扩展到美国之外的市场,包括澳大利亚、加拿大、新西兰以及英国。
安全通信是苹果与执法部门合作推出的打击儿童色情内容的服务端功能,可自动扫描信息中的儿童色情内容。
尽管此功能因潜在的安全和隐私问题遭到批评,但是最终苹果还是决定上线此功能并逐步扩展支持更多市场。
此类审查涉及iCloud相册和iMessage信息 , 若儿童用户使用iMessage传递色情信息会被苹果自动模糊处理。
模糊处理的同时苹果会通知儿童的父母由父母进行处理,此功能使用算法识别苹果不会直接获取消息的内容。
相册方面的审查方法是这样的:在图片上传前苹果会为图片生成哈希值,与执法机构提供的数据库进行比对。
如果比对成功苹果则会创建加密安全凭证,该凭证与会图像共同上传,然后苹果开始监测这个凭证上传次数。
若次数达到系统设定的阈值就会触发警报并且允许苹果进行解密,接下来苹果再通过人工对图片进行审核等。
这个过程实际就是打击儿童色情图片被上传和共享,凭证次数越多意味着特定的图片被用户上传的次数越多。
当然仅靠哈希值匹配精度是不够的,苹果还使用神经网络哈希算法可以识别用户对图片添加文字或进行裁剪。
即便是添加文字和裁剪也会被苹果识别出来并添加对应的加密安全凭证,然后凭证再随着照片上传到服务器。
据苹果自己的说明此功能目前不会被默认启用,当用户升级后打开信息则会弹出窗口询问用户是否开启功能。
当开启后安全通信功能才会启用并开始进行检测儿童色情内容,若儿童发送或收到此类内容苹果会将其隐藏。
需要强调的是默认禁用的只是信息里的过滤,这倒是不会破坏端到端加密,但iCloud凭证扫描是自动开启的。
目前存在的争议主要是哈希校验和凭证阈值都可能出现失误,如果出现失误则有可能导致用户照片遭到泄露。
因此诸如电子前哨基金会等机构猛烈批评苹果这个做法,只不过就目前来说苹果仍不愿意说明具体技术细节。