微闻

标签: 苹果公司

  • 苹果公司加强对儿童色情内容的检测和防护

    APPLE 将检测危害儿童的色情(CSAM)内容

    首先,iPhone、iPad和Mac上的信息应用将获得一个新的通信安全功能,在接收或发送性爱照片时向儿童及其父母发出警告。苹果公司表示,信息应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情照片,该照片将自动模糊,儿童将被警告。

    同时,在图像被存储在iCloud照片中之前,APPLE会针对该图像与不可读的已知CSAM(儿童色情)哈希值集进行设备上的匹配过程。如果有匹配,设备就会创建一个加密安全凭证。该凭证与图像一起被上传到iCloud Photos,一旦超过匹配阈值,苹果就能解密该内容。轻微的修改无法绕过苹果的检测。

    在此之后,苹果公司会手动审查每份报告,以确认是否存在匹配,禁用用户的iCloud账户,并向NCMEC发送一份报告。苹果公司没有披露其确切的门槛是什么,但确保 “极高的准确性”,即账户不会被错误地标记。

    这些功能在推出时将只在美国提供,并将随着时间的推移扩展到其他地区。

  • 苹果公司的隐私保护问题

    苹果公司以注重于保护用户的隐私而广受好评。然而iOS生态本身是一个高度中心化的体系。iPhone会记录用户的位置、Siri功能会时刻保持监听、你买了什么,访问了什么它都知道。

    事实上,如果有一天苹果决定交出密钥进行合作,那么iPhone会是世界上最好的监视工具。