沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划

12 月 8 日消息,在分享给 WIRED 的一份声明中,苹果今天宣布 iCloud 云服务已放弃儿童性虐待材料(CSAM)检测计划。这项检测计划于 2021 年 8 月开始测试,主要会检测存储在 iCloud 的 CSAM 图像资料,但自推出以来备受争议。

沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划

苹果最初表示,CSAM 检测将在 2021 年底之前在 iOS15 和 iPadOS15 的更新中实现,但该公司最终根据 “客户、宣传团体、研究人员和其它方面的反馈” 推迟了这项功能。现在,经过一年的沉默,苹果已经完全放弃了 CSAM 检测计划。

苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员,甚至还包括一些苹果员工。

一些批评者认为,该功能将为设备创造一个 “后门”,政府或执法机构可以利用它来监视用户。另一个担忧是误报,包括有人可能故意将 CSAM 图像添加到另一个人的 iCloud 账户中,使其账户被标记。

苹果公司在声明中表示:

在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈后,我们正加大对 2021 年 12 月上线的 Communication Safety 功能的投资。我们决定不再推进我们之前提出的 iCloud 照片的 CSAM 检测工具。

儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。

免责申明:
1. 本站所有下载资源均不包含技术支持和安装服务!需要讨论请进群!
2. 分享目的仅供大家学习和交流,请不要用于商业用途!
3. 如果你也有好源码或者教程,可以到审核区发布,分享有KR奖励和额外收入!
4. 如有链接无法下载、失效或广告,请联系管理员处理!
5. 本站无法保证资源或破解时效性,如某些授权码过期等问题,恕不在修复范围内。
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!故不接受任何形式的退款,如确认资源确有问题的,会补给相应KR以供再次购买。
7. 53Kr源码暂未发现后门代码,但无法保证100%安全,推荐检测方法:上传到 https://www.virustotal.com/在线查看是否有恶意代码以及其他有后门嫌疑的代码。
8. 在本站下载的源码我还是不建议正式使用,有特别喜欢的可以去程序官方购买。
53kr资源站仅提供学习的平台,所有资料均来自于网络,版权归原创者所有!本站不提供任何保证,并不承担任何法律责任,如果对您的版权或者利益造成损害,请提供相应的资质证明,我们将于3个工作日内予以删除。
53kr资源分享 » 沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划

发表回复