Instagram 将检测并模糊处理发送给未成年人私信中的裸体照片
社交媒体平台 Instagram 正准备推出一项新的安全功能,可以模糊处理消息 (私信) 中的裸体照片,作为保护该平台上的未成年人免受虐待和性剥削诈骗努力的一部分。Meta 公司于当地时间4月11日宣布,这项新功能将对青少年 Instagram 用户默认启用,具体取决于他们帐户上的生日信息。该功能不仅会模糊被检测到包含裸露内容的图片,还会阻止用户发送这些图片。还会有通知鼓励成年用户也打开该功能。新功能将在未来几周内进行测试,预计在未来几个月内在全球范围内推出。
—— Meta 博客、TheVerge
发表回复