苹果公司解释了更多有关反虐童新措施的过程。
Tech Giant上周宣布了一个新的政策现货潜在儿童滥用意象的技术在iCloud和Messages中。边缘苹果发布了一个报道常见问题页面最近几天,这篇文章解释了这项技术是如何使用的,以及在人们对新措施表示担忧后,隐私方面会是什么样子。
苹果公司表示,该技术特别局限于检测儿童性虐待材料(CSAM),不能成为监控工具。
苹果在新的FAQ页面上写道:“这个领域的重大挑战之一是在保护用户隐私的同时保护儿童。”
“有了这项新技术,苹果将了解到已知的CSAM照片存储在iCloud照片中,账户存储了一系列已知的CSAM照片。苹果不会了解任何存储在设备上的其他数据。”
该技术的工作原理是在备份到iCloud之前扫描图像。然后,如果图像符合CSAM的标准,苹果就会接收加密凭证的数据。
群体如电子前沿基金会表达了他们的担忧上周关于该技术,称技术可以“重新批准创建一个”恐怖主义的数据库“内容,这些内容公司可以为禁止这种内容而贡献和访问。”
“这一领域的重大挑战之一是在保护用户隐私的同时保护儿童。”
然而,苹果详细的FAQ页面解决了这些担忧,它表示,这项技术不会扫描存储在设备上的所有照片,不会打破消息中的端到端加密,不会错误地将无辜的人标记到执法部门。
The Verge网站指出,苹果的FAQ并没有解决人们对该技术用于扫描信息以及该公司如何确保扫描只聚焦于CSAM的担忧。
谢谢你让我们知道!
告诉我们为什么!