微闻

标签: 错误率

  • Meta 公司承认其内容审核“错误率仍然太高”

    Meta 公司表示其错误地过度审查了内容

    Meta 公司全球事务总裁尼克·克莱格12月2日告诉记者,该公司的内容审核“错误率仍然太高”,并承诺“提高我们执行规则的精确度和准确性”。克莱格表示:“我们知道,在执行政策时,我们的错误率仍然太高,这妨碍了我们想要实现的言论自由。无害的内容经常被删除或限制,太多人受到不公平的惩罚。在疫情期间,我们制定了非常严格的规则,删除了大量内容。当时没有人知道疫情会如何发展,因此这是事后诸葛亮。但事后看来,我们觉得做得有点过了。我们非常清楚,因为用户非常正确地表达了他们的观点,抱怨我们有时执行过度,犯了错误,删除或限制了无害或无辜的内容。”

    —— TheVerge

  • 人工智能模型在用西班牙语提问时错误率高

    研究表明人工智能模型在用西班牙语提问时错误率更高

    人工智能模型很难用西班牙语准确回答与选举相关的问题。这是AI Democracy Projects新研究得出的结论。研究发现,五种领先的生成式人工智能模型产生的英语和西班牙语答案的真实性之间存在巨大差异。这项研究向人工智能模型提出了一些问题,旨在模拟即将举行的美国总统选举中亚利桑那州选民可能会问的问题。对于同样的25个英语和西班牙语提示,人工智能模型对西班牙语问题的回答中有52%包含错误信息,而对英语问题的回答中有43%包含错误信息。该研究强调了生成式人工智能模型表现出偏见的令人惊讶的方式,以及偏见可能造成的危害。

    —— Techcrunch、研究报告

  • ChatGPT 在编程问题上的错误率过高

    研究表明ChatGPT在回答编程问题时错误百出,并且错误很容易被忽略

    在研究中,研究人员查看了 Stack Overflow 中的 517 个问题,并分析了 ChatGPT 对这些问题的回答尝试。研究人员表示:“我们发现 52% 的 ChatGPT 答案包含错误信息,77% 的答案比人类的答案更冗长。”尤其令人不安的是,许多人类程序员似乎更喜欢 ChatGPT 的答案。普渡大学的研究人员对 12 名程序员进行了调查——诚然,样本量很小 —— 发现他们中 39% 的人没有发现人工智能产生的错误。

    研究人员写道:“礼貌的语言、清晰的教科书式的回答以及全面性是使 ChatGPT 答案看起来更令人信服的部分主要原因,这让用户放松了警惕,忽略了 ChatGPT 答案中的一些错误信息。”

    —— Futurism