标签: CSAM

  • 苹果公司因拒绝实施扫描CSAM系统而被起诉

    苹果因放弃 iCloud 的 CSAM 检测而被起诉

    苹果公司因决定不实施扫描 iCloud 照片中儿童性虐待内容 (CSAM) 的系统而被起诉。诉讼主张,由于没有采取更多措施防止此类内容的传播,这迫使受害者重新经历他们的创伤。诉讼指出,苹果公司宣布了“旨在保护儿童的被广泛吹捧的改进设计”,但却未能“实施这些设计或采取任何措施检测和限制”此类内容。诉讼来自一名27岁女性,她以化名于周六在北加州美国地方法院起诉苹果公司。她称,一名亲戚在她还是婴儿时猥亵了她,并在网上分享了她的照片,她现在几乎每天都会收到执法通知,说有人因持有这些照片而受到指控。参与该诉讼的律师表示,本案中有2,680名受害者可能有权获得赔偿。

    —— 纽约时报

  • 苹果被指低报其平台上的CSAM内容数量

    苹果被指少报其平台上疑似 CSAM 内容

    7月23日消息,苹果公司被指控低报其平台上儿童性虐待内容 (CSAM) 的普遍程度。英国儿童保护慈善机构国家防止虐待儿童协会 (NSPCC) 表示,苹果公司去年向国家失踪与受虐儿童中心 (NCMEC) 报告了全球 267 起疑似 CSAM 案件。与谷歌报告的 147 万起潜在案例和 Meta 报告的 3060 万起相比,这显得微不足道。NSPCC 还表示,2022年4月至2023年3月期间,苹果公司在英格兰和威尔士涉及的 CSAM 案件 (337起) 比其在全球范围内一年内报告的案件数量还要多。“这之间存在令人担忧的差异”。NSPCC 儿童安全在线政策负责人理查德·科拉德说:“苹果在解决儿童性虐待问题上明显落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国推出《网络安全法》做好准备。”

    ——Engadget

  • 大型科技公司签署限制CSAM扩散原则

    大型人工智能公司同意打击虐待儿童图像

    谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

    —— Theverge

  • 欧盟 CSAM 法规被芬兰议会大委员会驳回

    芬兰议会大委员会驳回了禁止端对端加密通信的提案,使之无法在欧洲成为法律

    芬兰议会本应于上周五(10 月 13 日)就欧盟所谓的CSAM 法规采取最终立场。

    该法规如果以目前的形式实施,实际上将禁止整个欧洲所有形式的通信中的强端到端加密。对于普通消费者来说,最知名的强加密示例可能是WhatsApp和Signal等即时消息服务。高度加密的即时消息不可能被破解,并且消息只能由消息的发送者及其预期接收者读取。

    欧盟希望欧洲当局能够打破这一局面,以便在人工智能的帮助下监控所有通信并搜索可疑材料,而无需单独的法院命令。换句话说,应该破解加密——并且应该建立跟踪所有通信的大规模监控。

    周五,芬兰议会大委员会就此事做出了决定,并就此事表明了立场。大委员会的立场对芬兰政府具有约束力,即政府有义务遵循委员会的指示。

    委员会赞扬了 CSAM 演讲背后的想法,即保护儿童免受互联网危险。委员会认为端到端加密绝对不能被破解,因为这会破坏信息安全。

    此外,委员会认为该提案不能以允许大规模监视的形式得到支持。该委员会认为,监测只能针对确定的目标进行,而不是在整个国家的层面上进行。换句话说,委员会拒绝了应扫描所有人的所有消息以防发现可疑内容的提议。即芬兰不能接受该提案,因为它是基于大委员会的意见。

    —— AfterDawn

  • 谷歌改变了CSAM标记的政策

    Google 改变政策,CSAM 标记的帐号所有人将有机会为自己辩解

    此前,科罗拉多州的一位母亲她的账户被禁用,她失去了访问她的婚礼照片、她儿子成长的视频、她十年前的电子邮件、她的税务文件以及她保存在她认为最安全的地方的其他一切。

    她花了几个星期才发现发生了什么。她9岁的孩子最终承认,他用她的一部旧智能手机上传了一段自己裸体跳舞的YouTube短片。

    现在,在《纽约时报》报道后,谷歌已经改变了其上诉程序,让被指控犯有儿童性剥削这一令人发指的罪行的用户能够证明自己的清白。被认为是剥削性的内容仍将从谷歌删除并被举报,但用户将能够解释为什么这些内容会出现在他们的账户中–例如,澄清这是一个孩子的不成熟的恶作剧。

    谷歌信任和安全运营主管苏珊-贾斯帕在一篇博文中说,该公司将 “为账户暂停提供更详细的理由”。她补充说:”而且我们还将更新我们的上诉程序,允许用户提交有关其账户的更多背景,包括分享相关独立专业人士或执法机构的更多信息和文件,以帮助我们了解账户中检测到的内容。”

    —— 纽约时报

  • 苹果公司删除CSAM扫描功能

    苹果公司删除关于CSAM扫描功能的网页

    苹果公司已经悄悄地从其儿童安全网页上删除了所有提及CSAM的内容,这表明在对其方法提出重大批评后,其检测iPhone和iPad上儿童性虐待图像的有争议的计划可能悬而未决甚至可能中途夭折。

    苹果公司在8月宣布了一套计划中的新的儿童安全功能,包括扫描用户的iCloud照片库中的儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母的通信安全,以及扩大Siri和搜索中的CSAM指导。

    这些功能公布后,受到广泛的个人和组织的批评,包括安全研究人员、隐私吹哨人爱德华·斯诺登、电子前沿基金会(EFF)、Facebook的前安全主管、政治家、政策团体、大学研究人员,甚至一些苹果员工都对此表示明确反对。
    大多数批评都是针对苹果公司计划的设备上CSAM检测,研究人员抨击其依赖无效和危险的技术,近乎于实施大规模监视,并嘲笑其实际上在识别儿童性虐待图像方面没有效果。

    苹果继续为”信息”功能推出通信安全特性,本周早些时候随着iOS 15.2的发布而上线,但在批评的洪流中,苹果决定推迟CSAM的推出,这显然是它没有想到的。

    9月,该公司表示,”根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。”上述声明之前被添加到苹果公司的儿童安全页面,但它现在已经消失了,这就提出了一种可能性,即苹果公司可能已经搁置,甚至完全放弃了这个计划。

    —— cnBeta