为什么 ChatGPT 说起来头头是道,但关键时刻却经常掉链子(二)
对于研究人类如何学习的心理学家来说,目前的大语言模型并不是一个理想的模型。那么,是什么让人类如此独特呢?
在我们的实验室中,我们采用关系框架理论(Relational Frame Theory,RFT)的观点,该理论认为人类认知以及智力是建立在我们的关系响应能力之上的——根据一个事件与另一事件的关系来响应该事件。
当我们在言语社会中长大时,我们学会以多种方式将环境中的物体和事件联系起来(A 与 B 相同、A 大于 B、A 小于 B、A 是 B 的一部分、 A 在 B 之后,A 在这里,B 在那里,A 到 B 就像 C 到 D,等等)。我们还学会适当地回应这些关系(例如,如果盒子 A 有一块巧克力,而盒子 B 比盒子 A 有更多巧克力,你会选择哪一个?)。随着时间的推移,这些关系可以从相关对象的不相关物理属性中抽象出来,我们可以开始将它们任意或象征性地应用于对象(例如,以与实际狗相同的方式响应“狗”这个词)。
这种“表现得好像”事物是相关的能力为快速、灵活和生成学习以及最终我们认为的智能行为提供了基础。构成现代智力测试的许多子测试(例如,瑞文推理测验(Raven's Progressive Matrices)和其他流体推理测试、语言推理、视觉空间推理等)评估关系性行为,这并非巧合,并且有初步证据表明关系性训练有助于提高儿童智力。
当然,人工智能领域的许多人都承认关系推理的重要性,并尝试将关系机制纳入他们的模型中。然而,到目前为止,似乎没有一个达到了人类独有的“象征水平(symbolic level)”。假设人工智能研究想要反映支撑人类能力的过程,而不仅仅是像现在这样产生类似人类的输出。
在这种情况下,就需要一种专注于高效、情境敏感学习的不同方法。在我在 LIP 实验室的研究中,我们尝试通过开发受 RFT 核心思想启发的计算模型来做到这一点,如果理论正确,应该提供更好(即更快、更灵活)的人类学习模型。
回到 ChatGPT 的智能问题,值得注意的是,它的开发有一个特定的目的:通过计算机界面与人类互动,并根据收到的任何提示生成连贯的答案。考虑到这一目标,其表现非常出色。
它的设计初衷并不是具有通用的智能(即能够灵活地适应新的情况或问题),而且事实也的确如此。尽管如此,它仍然给我们带来了智能的错觉,因为它模仿了智能人类语言。