iOS开始审查用户照片 苹果为“后门”问题统一员工口径
2021年08月15日 08:29
来源: 快科技
292人参与讨论
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈


K图 AAPL_0

  苹果一直标榜自家的手机及iOS系统在用户隐私上的牢不可破,甚至不惜跟美国政府打官司。不过现在苹果改了一个政策,iOS会审查用户的照片,以致于苹果都要开始为此统一员工口径。

  本月初,苹果宣布了一项新政策,将推出名为“neuralMatch”的新技术,它会在图片上传到iCloud之前进行扫描。如果它找到了匹配的CSAM(儿童性虐待照片),将会通知审核人员检查。若确认存在儿童色情内容,那么苹果方面将关闭账户,并通知美国国家失踪和被剥削儿童中心。

  苹果这一举动受到了儿童保护组织的认可,但有更多的人认为苹果审查用户照片是个不好的苗头,觉得被植入了后门,担心该系统遭到滥用。

  苹果此前解释过该系统的运作方式,称这一系统并不能真正“看到”用户的照片,而是采用“数字指纹”的技术,通过辨识图片中的关键信息,与现有的儿童性侵图像数据库内容对比。

  虽然内部员工都有强烈的反对倾向,但苹果还是会执行这一政策,本周还给员工下发了最新的备忘录,要求员工在CSAM后门问题上统一口径,强调这一政策只针对iCloud中的CSAM内容,不会容忍被滥用。

(文章来源:快科技)

文章来源:快科技 责任编辑:DF506
原标题:iOS开始审查用户照片 苹果为“后门”问题统一员工口径
郑重声明:东方财富网发布此信息的目的在于传播更多信息,与本站立场无关。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500
日本毛片免费视频观看