电子前线基金会:希望苹果完全放弃 CSAM 儿童保护功能

js 原创
2021-09-07 电脑百科网
因遭到大量用户以及部分国家和地区反对,苹果近日宣布暂缓推出 CSAM 儿童性虐待照片扫描功能,表示公司会在未来的几个月收集意见,并改进这项功能。据外媒 Wccftech 消息,电子前沿基金会 EFF 于 9 月 3 日发表文章,表示苹果 CSAM 检测功能会给 iPhone 用户的隐私和安全造成威胁。

电子前线基金会:希望苹果完全放弃 CSAM 儿童保护功能

▲ 图片来自电子前沿基金会

EFF 对苹果暂缓推出该功能、倾听意见的做法表示高兴,但是希望该公司能够更进一步,不仅仅是倾听意见,而是完全放弃这项计划。该基金会表示,这一功能的推出,还有可能将原本遭受伤害的儿童置于更大的危险之中。

官方表示,全球有 90 多个组织向苹果呼吁,不要实施 CSAM 计划。上周,EFF 向苹果发出请愿书,已经收集到了超过 2.5 万个签名。

据了解到,今年 8 月德国有关部门给苹果 CEO 库克,希望苹果重新考虑其 CSAM 计划。苹果公司对这一功能解释称,不会扫描分析每个 iPhone 上的照片,而只是对 iCloud 上的照片特征数据比对。自从苹果公司发表暂缓推出 CSAM 的声明之后,截至发稿还没有更新的回应,该功能是否会正式推出,还是未知数。
马斯克要揭露推特虚假账号数,但专家称其方法“愚蠢” 三星电机宣布终止柔性印刷电路板 RFPCB 业务,不影响 iPhone 生产 微信输入法终于稳了?腾讯申请商标:隐私更安全 触宝第二季度净收入 8322 万美元,扭亏为盈 快手:10 月累计清理违规短视频 13 万条,累计封禁用户 29 万人 2018世界杯比利时5-2突尼斯获2连胜 阿扎尔卢卡库各2球
热门文章
为你推荐