苹果研究人员表示AI模型不具有推理能力
苹果公司的六位人工智能研究人员刚刚发表了一篇关于大语言模型LLM的极好文章,他们勇于挑战主流模式。其中有一段很关键:“我们在语言模型中没有发现形式推理的证据 …. 它们的行为可以用复杂的模式匹配来更好地解释。事实上,这种模式匹配非常脆弱,改变名称可以使结果改变大约10%!”(一句话)改变一个词以不相关的方式重复两遍或添加一些不相关的信息可能会给你不同的答案。
LLM 缺乏足够抽象和正规推理的另一个表现是,问题越大,性能往往越差。在解决小问题时性能还可以,但很快就会下降。我们可以在整数运算中看到同样的情况。无论是旧模型还是新模型,在越来越大的乘法运算问题上,我们都能多次观察到运算速度下降的现象。埃隆·马斯克的自动驾驶出租车可能也会遭遇类似的问题:它们在最常见的情况下可能能够安全运行,但在某些情况下也可能难以进行足够的抽象推理。
—— Marcus on AI