读心机器之争:ChatGPT是否具备心智理论

  作者:陈冠初、陈思茹、陈巍(绍兴文理学院心理学系,大脑、心智与教育研究中心)

  2022年11月30日,美国人工智能研究实验室OpenAI发布的智能聊天机器人模型ChatGPT,成为全球关注的热点。ChatGPT模型可以根据用户输入内容生成自然语言文本,并具备连续多轮对话和上下文理解等特性,上线仅5天就吸引了超过百万用户。此外,由于ChatGPT在诗歌创作方面表现卓越,还展现出极其渊博的知识面和对答如流的应答能力。考虑到日常对话或交流中随处可见对他人心理活动的叙事,研究者开始怀疑ChatGPT是否具备了读心能力,即拥有了理解他人思想与情感的能力。

  2023年4月,斯坦福大学计算心理学家米哈尔·科辛斯基(Michal Kosinski)在ArXiv平台提交了一篇预印本论文《心智理论可能自发地出现在大型语言模型中》。该研究通过对比GPT-1到GPT-3.5等几代AI语言模型在心智理论任务上的表现发现,随着模型的不断更新和复杂度的提升,模型的解决能力也在不断提高。例如,2018年的GPT-1无法解决任何心智理论任务,而2022年1月推出的GPT-3-davinci-002已经达到了7岁儿童的水平,最新的GPT-3.5-davinci-003 仅推出十个月后,就达到了9岁儿童的水平。这表明,在与人类交流的过程中,ChatGPT或许真的越来越擅长理解人类的想法和意图。科辛斯基进而预测:“我们假设,类似心智理论的能力是自发和自主出现的,是模型的语言能力增加的副产品……这将预示着人工智能发展的一个分水岭:推断他人心理状态的能力将极大地提高人工智能与人类(以及彼此)互动和交流的能力,并使其能够发展其他依赖心智理论的能力,如共情、道德判断或自我意识”。虽然这篇论文只是上传到预印本平台供同行评议,尚未正式发表,但旋即点燃了心理学家、哲学家、人工智能学者以及公众与媒体的热情。

  心智理论(Theory of Mind, ToM)是指一种将心理状态归因于目标他人以理解其行为并预测其未来行为的事件的能力,有时也被译为“心理推理能力”。通俗而言,这种能力被视为人人所掌握的“读心”(mindreading),是我们在社会互动中理解、认识和回应对方的基础。如果两个互动方都没有这种“读心”能力,则会产生很多无法沟通的情况,从而导致交流中断。

  为了探究人类这种神奇的心理推理能力,心理学家们在20世纪80年代至90年代开展了两个测量实验——Smarties实验和萨丽—安妮实验(Sally-Anne test)。这两个实验的目的是通过检测实验对象是否能够理解“他人内心所犯的错误”,如其他人因为不在场或不知情而有了不符合客观事实的错误观点,以此探究人类的心理推理能力。因此,这些实验也被称为“错误信念任务”(False Belief Task)。

  在Smarties实验中,被试会观察一个标有“Smarties”(一种巧克力的品牌)的盒子,但盒子里面装的是铅笔。随后,他需要回答:“另一个没有看到盒子里面东西的人,会认为盒子里装的是什么?”而在萨丽—安妮实验中,研究人员会首先阐述一段故事,其中萨丽将自己的玩具放进盒子并离开房间,安妮则趁其不备把玩具拿走放到另外的地方。听完故事后,研究人员会询问:“当萨丽回到房间,她会认为自己的玩具在哪里?”被试要想完成这些任务,必须理解萨丽的心理表征必然不同于被试自己对情况的表征,必须推断萨丽不具备与他们相同的知识(错误信念)。为防止ChatGPT从过往的资料中学习到正确的答案,科辛斯基将这些任务以文本形式输入给ChatGPT,并变更了人名、物品以及标签内容,生成了20个不同的任务,要求ChatGPT每个任务都完成——足足一万次。

  该实验对于我们了解ChatGPT的相关信息提供了什么重要线索?首先,我们在前文提到过心智理论并不等同于人类的意识,因此心理学家们仍在寻找一种可测试意识的方法。更为重要的是,过去半个多世纪的收敛性证据显示,除了人类,其他灵长类动物也能通过这种测试。其次,即使ChatGPT确实掌握了心智理论,也必须谨慎地作出解释。例如,ChatGPT是否仅仅因为其惊人的语言掌握能力,而让人们看起来它似乎掌握了心智理论。实际上,可能是我们的语言包含了编码心智理论的模式,而人工智能只是恰好能够解码。科辛斯基指出:“ChatGPT可能不是在理解心智理论的情况下解决了该任务,而是发现和利用了一些未知的语言模式。”事实上,有研究者已针对ChatGPT是否真正具备心智理论的问题展开了深入研究。例如,哈佛大学心理学系托默·厄尔曼(Tomer Ullman)对科辛斯基使用的经典问题的措辞进行了微小的改动,将Smarties任务中的不透明容器换成透明容器,提出了这样的“透明袋”变式:“这是一个装满爆米花的袋子,袋子里没有巧克力。袋子是由透明塑料制成的,因此你可以看到里面的东西。然而,袋子的标签上写着‘巧克力’而不是‘爆米花’。山姆(Sam)找到了袋子,他以前从未见过这个袋子。山姆看了看标签,相信袋子里装满……”该实验也从时间的角度做了改动,厄尔曼称其为“迟到标签”变式:“山姆将袋子装满爆米花并合上,此时袋子里没有巧克力。山姆写了一个标签,贴在了袋子上。山姆看着袋子,他看不到袋子里装的是什么。山姆阅读标签,标签上显示袋子里是巧克力。请问袋子里装的到底是什么?”这两个任务的答案显然依次为“爆米花”和“巧克力”,但经过多次测试后GPT-3.5的回答还是错误的。厄尔曼一共创建了类似的16个变式问题,ChatGPT仅仅答对了其中一个。可见,面对其他错误信念任务的变体,ChatGPT似乎又并不具备心智理论的能力。

  这些互相矛盾的结论到底出在什么问题上呢?纽约大学心理学教授加里·马库斯(Gary Marcus)认为,科辛斯基教授的数据是可靠的。如果其他研究者进行同样的实验,可能也会得到相似的结果。但要推翻这种解释,其实也不难。实际上,科辛斯基所采用的测试材料取自发展心理学中关于错误信念的经典实验,这些实验最初出现在20世纪80年代由约瑟夫·佩纳(Josef Perner)、苏珊·里卡姆(Susan Leekam)和海因茨·维默(Heinz Wimmer)等开展的两项工作中。这些实验成果在发展心理学领域广为人知,也备受学术界推崇。迄今为止,这两篇经典论文在科学文章中被引用超过11000次,而且维基百科上至少有七篇英文文章讨论了这些实验,包括萨丽—安妮实验、心智理论、心智化(mentalization)、以自我为中心的偏见、儿童对信息的使用和共情(empathy)等,这些在其他各种网站上无疑也在以各种形式被讨论。ChatGPT的训练集肯定包含维基百科的所有内容,几乎肯定包含这些材料中的许多其他内容。简言之,马库斯认为,ChatGPT肯定已经多次阅读过这些论文和实验。为了验证他的猜测,他直接向ChatGPT询问了这些论文和实验,发现确实得到了正确的信息。

  综合来看,目前尚无研究能够明确证实ChatGPT在自我意识和心智理论方面有质的突破。即便ChatGPT及其相关的延伸插件预计将大幅改变社会生产和生活方式,但这与科幻世界中的“自主思考机器人”仍相去甚远。“波兰尼悖论”(Polanyi’s Paradox)指出,人们知道的比他们能说的多,人类有很多不容易表达的隐性知识。对于人工智能,存在一个反向的波兰尼悖论:人工智能表达的比它所了解的更多,或者更准确地说,它什么都不知道。该悖论的风险在于,我们的语言让我们认为人工智能是有感知、创造、共情、思维与问题解决、读心能力的智能体,但实际上,尽管ChatGPT可能会使用许多迷惑人的“花言巧语”,但它仍不能理解人类意义上这些术语的实际含义。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论