消费者报告的一项新研究显示,市场上几种流行的语音克隆工具没有 “有意义的” 保护措施来防止欺诈以及滥用。消费者报告对六家公司的语音克隆产品(Descript, ElevenLabs, Lovo, PlayHT, Resemble AI和Speechify)进行了调查,以了解其是否存在能有效防止恶意用户在未经许可的情况下克隆他人声音的机制。结果只有 Descript 和 Resemble AI 两家公司采取措施来防止滥用。其他仅要求用户勾选方框,确认他们有克隆声音的合法权利或进行类似的自我声明。消费者报告政策分析师说,如果没有采取足够的安全措施,AI语音克隆工具有可能“增强”冒充诈骗。
—— Techcrunch