人工智能模型安全评估存在很大的局限性
新报告显示,尽管对人工智能安全性和责任感的需求不断增加,但当今的测试和基准可能仍存在不足。英国非营利性人工智能研究机构 Ada Lovelace 研究所 (ALI) 进行了一项研究,采访了来自学术实验室、民间社会和制作供应商模型的专家,并审核了近期对人工智能安全评估的研究。合著者发现,尽管当前的评估很有用,但它们并不详尽,很容易被操纵,并且不一定能表明模型在现实场景中的表现。有些评估只测试模型在实验室中与基准的匹配程度,而不是模型对真实用户的影响。其他评估则参考了为研究目的而开发的测试,而不是对生产模型的评估。如果模型是在测试时所用的数据上训练的,基准测试结果可能会高估模型的性能。
—— Techcrunch