苹果证实它将扫描手机上的儿童色情照片

苹果
WinterIsComing (31822)发表于 2021年08月06日 10时05分 星期五
来自部门
苹果发布新闻稿,证实它将扫描美国 iPhone 手机上的儿童色情照片。苹果称,它将在三个方面引入儿童安全保护功能:Messages app 将加入新的工具在收到或发送露骨照片时警告儿童及其父母,收到的照片将会被模糊,如果儿童决定浏览照片他们将会被告知父母会收到信息,苹果声称它利用的是设备上的机器学习功能去分析和做出判断,它并不能访问照片;iOS 和 iPadOS 将引入新的技术允许苹果检测储存在 iCloud Photos 中的已知 CSAM(Child Sexual Abuse Material)图像并报告给 National Center for Missing and Exploited Children (NCMEC),这一哈希匹配是在设备进行的,苹果表示除非发现 CSAM 图像它不会知道用户储存的内容;Siri 和 Search 将在用户尝试搜索 CSAM 相关主题时进行干预。这些功能将包含在今年晚些时候释出的 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 中。安全专家对这些功能可能成为政府监视工具或被执法部门滥用表达了担忧

显示选项 样式:
声明: 下面的评论属于其发表者所有,不代表本站的观点和立场,我们不负责他们说什么。
  • 机器学习? 那就证实了苹果拥有大量儿童色情照片。(得分:1 )

    qq33357486(22595) Neutral 发表于2021年08月06日 17时37分 星期五
    RT
    --
    怎么样,才能让人类的生活方式按我的设计改变。这是有梦想的互联网设计师遇到的问题。
  • 乍一看还以为是旧闻(得分:1 )

    oldmelodydies2(42271) Neutral 发表于2021年08月10日 02时22分 星期二
    我记得苹果在被国会质询之后就加了扫描iCloud的功能,而且苹果用户协议里也宣称要扫描iCloud中是否有非法内容。再一看才发觉这回扫描的是用户设备。