关键的外卖
- 苹果公司的反对儿童性虐待材料的新政策得到了用户和隐私专家中引起了争议。
- 该技术的工作原理是在iCloud的扫描图像进行CSAM和使用机器学习,以确定消息明确的照片。
- 专家表示,无论苹果称其扫描技术多么私密,它最终还是为任何可能发生的事情打开了后门。
苹果最近推出的新技术现场儿童性虐待材料(CSAM),但它变得比隐私社会各界好评更多的批评。
尽管苹果此前曾被誉为为数不多的大型科技公司之一真正关心用户隐私上周推出了新的CSAM扫描技术是把一个大扳手在。专家们说,尽管苹果承诺用户隐私,该技术将最终把所有苹果用户面临风险。
“苹果正在沿着一条非常陡的斜坡走下去;他们充实了这个工具,这个工具有可能被政府走后门和被坏人滥用。DCRYPTD他在接受Lifewi乐动体育赞助re的电子邮件采访时说。
苹果的计划是不是私人
新技术的工作原理有两种方式:第一,它是备份到icloud的,如果图像CSAM的标准匹配,苹果接收加密凭证的数据之前扫描的图像。设备上的机器学习,另一部分用来识别和模糊孩子们通过邮件收到色情图片。
“苹果正在其降压很滑的斜坡,他们已经充实了一种工具,它是在政府后门和滥用不良行为的风险。”
专家们对“消息”功能感到担忧,因为它将有效地结束苹果一直支持的端到端加密(E2EE)。
“苹果公司推出的客户端扫描的是隐私,因为这有效地打破E2EE入侵,”萨塔尔说。
“E2EE的目的是使消息对除发送方和接收方之外的任何一方都不可读,但在匹配的情况下,客户端扫描将允许第三方访问内容。这开创了一个先例,你的数据是E2EE,直到它不是。”
而苹果在最近发布的一份报告中表示常见问题页面满足人民对新政策的担忧它不会更改消息的隐私保证,并且不会访问通信,企业仍持谨慎态度苹果的承诺。
“由于检测‘色情图片’将使用设备上的机器学习来扫描信息的内容,苹果将不再能够诚实地称iMessage为“端到端加密”电子前沿基金会(EFF)响应苹果的政策写道。
“苹果及其支持者可能会辩称,在加密或解密信息之前或之后进行扫描,可以保持‘端到端’的承诺不变,但这将是一种语义上的操纵,以掩盖公司朝着强大加密立场的结构性转变。”
潜在的滥用
许多专家的主要忧虑是一个后门,无论苹果公司可能会声称,仍然是开放的,以可能滥用的存在。
“虽然这项政策只适用于13岁以下的用户,但这个工具也很容易被滥用,因为不能保证用户确实是13岁以下的。这种倡议对LGBTQ+青少年和处于虐待关系中的个人构成了风险,因为它可能作为一种跟踪软件存在,”Sattar说。
EFF表示,外部压力(尤其是政府)的半点会打开滥用的门,并指出它已经发生的情况。例如,EFF说,技术开发的最初扫描和散列CSAM已改变用途,以创建“恐怖分子”内容数据库公司可以对这些内容做出贡献,并有权禁止这些内容。
EFF表示:“要想拓宽苹果正在构建的狭窄后门,只需要扩大机器学习参数,以寻找其他类型的内容,或者调整配置标记来扫描,不只是儿童的,而是任何人的账户。”
爱德华·斯诺登甚至谴责了苹果的新技术作为“国家安全问题”和“灾难性的”,他的组织,新闻基金会的自由,是已经签署了一项新的信,呼吁苹果来结束这一政策之前就开始的一处。
这超过7400人在信上签名安全和隐私保护组织和专家,呼吁苹果公司立即停止这一技术,并出具重申了公司对终端到端到端加密和用户隐私承诺的声明。
“苹果目前的路径威胁由科技专家,学者和政策主张对强大的隐私保护措施是横跨大多数消费电子设备和使用情况的规范,破坏几十年的工作,”信中读取。
时间会告诉我们苹果计划如何,尽管周围的巨大的争议实施这一技术,但该公司的优先隐私权申诉肯定会永远是相同的。