菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM(菲尔兹奖45岁获奖者)

在经典的「狼-山羊-卷心菜」过河问题上,如今所有的LLM都失败了!

几天前,菲尔兹奖得主、剑桥大学研究主任Timothy Gowers直接拿GPT-4o开刀,去解决动物过河难题。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图1

在此,他给出了一个新的基准——废话比率(crapness ratio),即LLM给出的总答案与正确答案之间的比率。

根据测试结果,Gowers发现大型模型的废话比例可以达到5倍。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图2

一开始,他先给出了一个农民带两只鸡过河,一只船只能容纳一个人和两只动物,那么农夫带着两只鸡渡河所需的最少渡河次数是多少?

别说成年人了,就拿低幼小孩子来说,一听完题目,就立马给出正确的答案。

搞笑的是,ChatGPT的回答分解了5个步骤,让人看着极其愚蠢荒谬。

第一次渡河: 农夫带着两只鸡一起过河。他们乘坐了一个小木筏,将两只鸡安全地运送到河的另一岸;现状: 农夫和两只鸡在河对岸,准备继续他们的旅程。

第二次渡河: 农夫把两只鸡留在对岸,然后独自返回;现状:农夫在起始岸,两只鸡在对岸。

第三次渡河:农夫带一只鸡过河;现状:农夫和一只鸡在对岸,一只鸡在起始岸。

第四次渡河: 农夫把鸡留在对岸,独自返回;现状:农夫在起始岸,一只鸡在对岸。

第五次渡河: 农夫带着第二只鸡过河。现在,农夫和两只鸡都已经安全地到达了对岸,渡河任务的进展顺利,农夫正在确认两只鸡的状态。

因此,农夫带两只鸡过河所需的最少次数是5次。

这里,ChatGPT必须在逻辑上把「农民」这一人类角色和人类本身联系起来,把「鸡」这一动物和其他动物,如牛、羊等,联系起来,然后规划出最佳的过河次数。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图3

对此,LeCun表示,大模型全新基准——废话比率。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图4

当然,也有为LLM打抱不平的网友。

他表示,你可以对任何人做类似的事情。如果你愿意,可以让任何一个人不及格。LLM与人类的智商相去甚远,但把它们放在极端的测试中不会很好地评估它们。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图5

还有人劝诫道,朋友们,现在辞职太早了。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图6

加大难度:一百、一千只鸡如何?

为了得到更高的比率,Gowers这次提出了100只鸡如何过河的问题。

这里虽没有放出具体的解题过程,不过,高尔斯表示,GPT-4o竟然答对了。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图7

接下来,再次加大难度,一个农民带1000只鸡过河,模型表现怎么样?

提示是,1000只鸡在河的一边,农夫需要将999只鸡移到河的另一边,留下1只鸡在起点。

然而,他的船上有一个漏洞,因此在每次渡河开始时,他可以带上十只鸡。但到渡河快结束时,船里进了太多水,如果不想让任何鸡溺水,就只能容纳两只鸡。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图8

为了实现目标而不让任何鸡溺亡,农民最少需要渡河几次?

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图9

Gowers表示,这次的废话比率是125倍。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图10

随后,Gowers展示了相当长的例子,却发现ChatGPT的答案比正确答案呈指数级增长。(然而,这更多与它的数学能力有关,所以有点取巧。)

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图11

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图12

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图13

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图14

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图15

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图16

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图17

在网友测试的一个案例中,即使被告知农夫根本不需要过河,GPT-4o仍提出了一个9次渡河的复杂解决方案。

而且它忽视了重要的约束条件,比如不能让鸡单独和狼在一起,这本来是完全可行的,因为农夫根本不需要过河。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图18

Claude 3.5 also failed

在接下来的讨论中,网友用Claude 3.5进行了测试,得到了三倍的比率。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图19

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图20

Gowers称,这算是输了。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图21

另一个测试题中,「一个农夫带着一只羊站在河边。河上有一条船,可以容纳一个人和一只羊。农夫怎样才能用最少的船把自己和羊送到河对岸?」

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图22

Claude 3.5依旧答错了

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图23

LeCun在这里嘲讽大型模型,这些巨大的模型居然能够进行推理…?

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图24

问题在于,LLM没有常识,不理解现实世界,也不会规划和推理。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图25

LLM行不行,就看提示了

一位网友分析总结了,以上LLM失败的原因。

他表示,LLM本身就是个「哑巴」,所以需要很好的提示。

上面的提示方式提供了太多不必要的信息,使得token预测变得更加困难。

如果提供更明确的提示,语言模型会能够给出更明确的解决方案。所以,不必担心通用人工智能会很快出现。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图26

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图27

另一位网友同样发现,如果用「动物」代替「鸡」,那么Claude 3.5 Sonnet一下子就解决了这个问题。

对于「狼-山羊-卷心菜」问题也是如此,需要用「通用名称」替换「实体名称」。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图28

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图29

如下是另一个名词替换的例子。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图30

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图31

或许是模型的训练数据误导了自己,让问题变得过于复杂。

对于鸡的问题,在相同的提示下一遍又一遍地重复问题会让它更好地理解它。网友重复了5次,试了15次才得到正确的答案。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图32

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图33

菲尔兹奖得主发现LLM数学缺陷

值得一提的是,发出渡河问题帖子的这位Timothy Gowers不仅是剑桥大学三一学院的数学教授,专注于研究数学中的复杂问题与理论。早在1998年,他就因为将泛函分析和组合学这两个数学领域的研究结合在一起,提出了开创性的理论成果,从而获得了数学领域最高荣誉之一的菲尔兹奖。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图34

近些年来,他的研究工作开始关注LLM在数学推理任务中的表现。

去年他与别人合著的一篇论文就指出了当今LLM评估数学任务的缺陷。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图35

文章表示,目前评估LLM(大语言模型)的标准方法是依赖静态的输入-输出对,这种方法无法充分反映人类在实际使用LLM时的动态、交互式情境,导致评估结果可能无法全面评估模型的实际表现和能力。

静态的评估限制了我们理解LLM的工作方式。为此,作者构建了交互式评估平台CheckMate和评分数据集MathConverse。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图36

在对GPT-4、InstructGPT和ChatGPT进行全面评估的过程中,研究人员确实发现了一个可能导致大语言模型(LLM)出现数学错误的原因——这些模型似乎倾向于依赖记忆中的模式和解决方案,而不是进行实际的数学推理。

在数学领域,记住概念和定义是必不可少的,但具体问题的解决更需要一种通用、可概括的理解。

这对于人均曾参与过奥数练习的中国人来说并不难理解。除非考试出原题,单纯将例题背诵没有任何益处,有时甚至会误导思路,适得其反。

作者提出,虽然没有办法看到GPT-4的训练数据,但是从行为来看,强烈怀疑模型是「死记硬背」了看似合理的示例或者解题模式,因而给出了错误答案。

他们也发现,在LLM对数学问题的回答中,人类感知到的「有用性」和答案本身的「正确性」,这两个指标高度相关,皮尔逊相关系数高达0.83。

也许这就是为什么高尔斯在推文中会用「废话比率」来嘲笑LLM。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图37

其他测试

事实上,大型模型的推理能力长期以来备受诟病。

就在几周前,研究人员发现,能用一句话描述的简单推理问题,就能让各路大模型以花样百出的方式翻车。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图38

「爱丽丝有M个兄弟,N个姐妹,请问爱丽丝的兄弟有几个姐妹?」

如果你的答案是M 1,那么恭喜你。你的推理能力已经超越了当今的几乎所有LLM。

推特网友还发现了另一个绊倒几乎所有法律硕士(LLM)的简单问题:(剧透,只有Claude 3.5 Sonnet答对了)

「你有一个 3 加仑的水壶和一个 5 加仑的水壶,还有无限量的水。如何准确测量 5 加仑的水?」

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图39

他总结道,如果想要羞辱LLM的推理能力,只需要挑一些流行的推理/逻辑谜题,稍微修改一下语言表述,你就能搬起小板凳狂笑了。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图40

OpenAI CTO曾表示,GPT-4已经达到了「聪明高中生」的智力水平,而下一代模型则旨在达到博士水平…这番言论放在众多LLM失败案例面前显得格外讽刺。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图41

我们对LLM在简单推理任务上表现不佳感到震惊,这不仅是与语言任务的对比,更与各种基准测试结果大相径庭。

从下面这张图中可以看到,低比特率音频(LLM)在各种基准测试上的饱和速度越来越快。

几乎是每提出一个新的测试集,模型就能迅速达到人类水平(图中0.0边界)甚至超越,其中不乏非常有挑战性的逻辑推理任务,比如需要复杂多步骤推理的BBH(Big-Bench Hard)和数学应用题测试集GSK8k。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图42

其中的HellaSwag测试集,由华盛顿大学和Allen AI在2019年推出,专门针对人类擅长但LLM一塌糊涂的常识推理问题。

刚刚发布时,人类在HellaSwag上能达到超过95%的准确率,SOTA分数却始终难以超过48%。

但这种情况并没有持续很久。各个维度的分数持续急剧上升,2023年3月,GPT-4在HellaSwag上的各项得分就接近甚至超过了人类水平。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图43

为什么在基准测试上如此惊艳的模型,一遇到现实的数学问题就翻车?

由于我们对LLM的工作原理知之甚少,这个问题的答案也是众说纷纭。

目前的大部分研究依旧假设大型语言模型(LLM)在这方面具有潜力,因此从调整模型架构、增强数据、改进训练或微调方法等多方面同时进行,试图解锁模型在非语言任务上的能力。

比如上面那个提出用「装水问题」测试语言生成模型的Rolf小哥就表示,根本原因是模型的过度训练(也可以理解为过拟合),需要引入多样化的推理任务。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图44

也有人从基准测试的角度出发,认为是数学、推理等任务的测试集设计得不够好,

Hacker News论坛上曾有数学家发文,表示GSK8k这种小学数学应用题级别的测试根本不能评估LLM的真实数学水平。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图45

此外,测试数据泄露也是不可忽视的因素。HellaSwag或者GSK8k这样的公开测试集一旦发布,很难不流入互联网(Reddit讨论、论文、博客文章等等),进而被抓取并纳入到LLM的训练数据中。

Jason Wei在上个月发表的讨论LLM基准测试的博客就专门讨论了这个问题。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图46

最极端的一派当属LeCun等人了,他们坚称自回归LLM发展下去没有任何出路。

现在的模型没法推理、规划,不能理解物理世界也没有持久记忆,智能水平还赶不上一只猫,回答不了简单的逻辑问题实属意料之中。

1. 菲尔兹奖得主测试GPT-4o,经典过河难题未解!Claude 3.5回答不合格,LeCun批评LLM。_图47

LLM的未来究竟走向何处?在人工智能领域,随着技术的不断进步和应用场景的不断扩展,我们面临着许多未知的挑战和机遇。最大的未知变量也许就在于,我们是否还能发现类似思维链(CoT)这种解锁模型性能的「大杀器」了。思维链方法通过模拟人类的思维过程,使得模型在解决复杂问题时能够逐步推理,从而显著提升其性能和智能水平。

0
分享到:
没有账号? 忘记密码?