近段时间,苹果因为iOS 15即将加入的一项新功能遭到许多用户质疑,这是一种能检测设备内的儿童不雅照片,包括虐童、有色制品等内容的本地算法,意在保护儿童。
但是,这就引发了大家对隐私问题的担忧,毕竟如此一来用户的相册照片就会被上传至云端,被后台人员查看,引发了一轮激烈的讨论。
苹果曾对此解释称,他们不会扫描机主的整个照片库来寻找虐童图片,而是使用密码学把图片与美国国家失踪与受虐儿童中心提供的已知数据库进行比对,但是一些用户依然存在一些焦虑和不满。
苹果公司软件工程高级副总裁Craig Federighi今天在接受《华尔街日报》的采访时,为该公司计划中有争议的儿童安全功能进行了辩护,透露了一些关于苹果公司扫描用户照片库中的儿童性虐待材料(CSAM)保障措施的新细节。
Craig Federighi再次表示,该检测算法全程都会在手机本地完成,例如,用户需要在其照片库中满足约30个CSAM内容的匹配,苹果才会被提醒,而且只有当用户达到30张已知儿童色情图片的匹配门槛时,苹果才会知道用户的账户和这些图片的情况。
需要注意的是,苹果在这个全程中,都不会知道用户相册中图片的具体信息,只是本地算法在通过比对后,会告诉苹果这部手机中可能有相关内容。
另外,国内用户并不需要关心这个问题,因为苹果已经明确表示,这套系统只在美国提供,并且只有在用户打开iCloud照片后才能启用。