微闻

标签: CSAM

  • 苹果被指低报其平台上的CSAM内容数量

    苹果被指少报其平台上疑似 CSAM 内容

    7月23日消息,苹果公司被指控低报其平台上儿童性虐待内容 (CSAM) 的普遍程度。英国儿童保护慈善机构国家防止虐待儿童协会 (NSPCC) 表示,苹果公司去年向国家失踪与受虐儿童中心 (NCMEC) 报告了全球 267 起疑似 CSAM 案件。与谷歌报告的 147 万起潜在案例和 Meta 报告的 3060 万起相比,这显得微不足道。NSPCC 还表示,2022年4月至2023年3月期间,苹果公司在英格兰和威尔士涉及的 CSAM 案件 (337起) 比其在全球范围内一年内报告的案件数量还要多。“这之间存在令人担忧的差异”。NSPCC 儿童安全在线政策负责人理查德·科拉德说:“苹果在解决儿童性虐待问题上明显落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国推出《网络安全法》做好准备。”

    ——Engadget

  • 大型科技公司签署限制CSAM扩散原则

    大型人工智能公司同意打击虐待儿童图像

    谷歌、Meta、OpenAI、微软和亚马逊等科技公司今天承诺审查其人工智能训练数据中的儿童性虐待内容 (CSAM),并将其从任何未来模型中删除。这些公司签署了一套旨在限制 CSAM 扩散的新原则。他们承诺确保训练数据集不包含 CSAM,避免使用包含 CSAM 的高风险数据集,并从数据源中删除 CSAM 图像或指向 CSAM 的链接。这些公司还承诺对人工智能模型进行“压力测试”,以确保它们不会生成任何 CSAM 图像,并且只发布经过儿童安全评估后的模型。其他签署者包括 Anthropic、Civita、Metaphysical、Mistral AI 和 Stability AI。

    —— Theverge

  • 印度要求社交媒体平台永久删除CSAM内容

    印度要求 X、YouTube 和 Telegram 从其平台上永久删除 CSAM 内容,否则将剥夺平台免责保护的权利

    路透孟买 10 月 7 日 – 印度政府表示,已向社交媒体平台 X(以前称为 Twitter)、YouTube 和 Telegram发出通知,要求它们确保其平台上没有儿童性虐待内容。

    政府在星期五一份声明中表示,如果这些公司不遵守规定,可能会被剥夺法律责任保护。

    这些由电子和信息技术部 (MEITY) 发出的通知强调了迅速、永久删除平台上任何儿童性虐待材料的重要性。

    声明援引信息技术部副部长​​拉吉夫·钱德拉谢卡尔 (Rajeev Chandrashekhar) 的话说:“如果他们不迅速采取行动,《信息技术法》第 79 条规定的安全港将被撤销,印度法律规定的后果也将随之而来。”

    印度政府表示,钱德拉塞卡一直大力倡导从印度互联网上删除此类内容,印度总理纳伦德拉·莫迪政府决心“根据 IT 规则建立一个安全且值得信赖的互联网”。

    Telegram 周六表示:“Telegram 的版主积极巡逻平台的公共部分并接受用户报告,以删除违反我们条款的内容。”X 和拥有 YouTube 的谷歌的代表没有立即回应置评请求。

    —— 路透社

  • 谷歌改变了CSAM标记的政策

    Google 改变政策,CSAM 标记的帐号所有人将有机会为自己辩解

    此前,科罗拉多州的一位母亲她的账户被禁用,她失去了访问她的婚礼照片、她儿子成长的视频、她十年前的电子邮件、她的税务文件以及她保存在她认为最安全的地方的其他一切。

    她花了几个星期才发现发生了什么。她9岁的孩子最终承认,他用她的一部旧智能手机上传了一段自己裸体跳舞的YouTube短片。

    现在,在《纽约时报》报道后,谷歌已经改变了其上诉程序,让被指控犯有儿童性剥削这一令人发指的罪行的用户能够证明自己的清白。被认为是剥削性的内容仍将从谷歌删除并被举报,但用户将能够解释为什么这些内容会出现在他们的账户中–例如,澄清这是一个孩子的不成熟的恶作剧。

    谷歌信任和安全运营主管苏珊-贾斯帕在一篇博文中说,该公司将 “为账户暂停提供更详细的理由”。她补充说:”而且我们还将更新我们的上诉程序,允许用户提交有关其账户的更多背景,包括分享相关独立专业人士或执法机构的更多信息和文件,以帮助我们了解账户中检测到的内容。”

    —— 纽约时报