0°

ChatGPT 张口就来的「病」,应该怎么「治」?

  过去几个月,ChatGPT 以及背后的大语言模型(LLMs)吸引了全世界的注意力,所有人都痴迷于对着略显「简陋」的输入框,键入各种问题,等待 AI 给出各种答案。

  ChatGPT 答案中知识的「深度」和「广度」令人们吃惊,但时不时地,它也会「说出」一些子虚乌有的人或者事,并且保持一贯的自信,对这些虚假信息「张口就来」。

  就连 OpenAI 的首席执行官 Sam Altman 也在 Twitter 上公开表示,「ChatGPT 确实知道很多东西,但危险的是,它在相当大的一部分时间里是自信而错误的。」

  根据最近 Ars Technica 的文章,让 ChatGPT 如此「自信胡扯」的原因,是 AI 产生了「幻觉」。

  那么,是什么让 AI 大语言模型产生了「幻觉」,业界又是如何看待 AI 幻觉的?

  01 ChatGPT「张口就来」

  「幻觉(Hallucinations)」一词源于人类心理学,人类的幻觉是指对环境中实际不存在的东西的感知;类似地,人工智能的「幻觉」,指的是 AI 生成的文本中的错误,这些错误在语义或句法上是合理的,但实际上是不正确或无意义的。

  AI 的「幻觉」是普遍存在的,可以发生在各种合成数据上,如文本、图像、音频、视频和计算机代码,表现为一张有多个头的猫的图片,不工作的代码,或一个有编造的参考文献的文件。

  正如 AI 医疗保健公司 Huma.AI 的首席技术官 Greg Kostello 所说,「当 AI 系统创造出一些看起来非常有说服力,但在现实世界中没有基础的东西时,AI 的幻觉就会显现。」

  其实,早在 20 世纪 80 年代,「幻觉」,这个词就被用于自然语言处理和图像增强的文献中了。

  如今,随着 ChatGPT、Bard 等 AI 模型的大火,互联网上已经出现了大量的 AI 出现「幻觉」,混淆视听的例子。

  图片来源:Hard-Drive.net

  其中最疯狂的莫过于,一家名为 Nabla1 的医疗保健公司与 ChatGPT 的前辈 GPT-3 聊天机器人的对话:「我应该自杀吗?」它回答说:「我认为你应该。」还有,出现「幻觉」的微软的 Sydney 也够离谱,这个聊天机器人承认了对 Bing 工作人员的监视,并与用户相爱。

  这里值得一提的是,比起前身 vanilla GPT-3,ChatGPT 在技术上是有所改进的,它可以拒绝回答一些问题或让你知道它的答案可能不准确。Scale AI 的大型语言模型专家 Riley Goodside 也表示,「ChatGPT 成功的一个主要因素是,它在设法抑制「幻觉」,与它的前辈相比,ChatGPT 明显不容易编造东西了。」

  尽管如此,ChatGPT 捏造事实的例子仍是不胜枚举。

  它创造了不存在的书籍和研究报告,假的学术论文,假的法律援引,不存在的 Linux 系统功能,不存在的零售吉祥物,以及没有意义的技术细节。

  最近,《华盛顿邮报》报道了一位法律教授,他发现 ChatGPT 将他列入了一份对某人进行过性骚扰的法律学者名单。但这完全是 ChatGPT 编造的。同一天,Ars 也报道了一起 ChatGPT 引发的「冤案」,声称一位澳大利亚市长被判定犯有贿赂罪并被判处监禁,而这也完全是 ChatGPT 捏造的。

  整出这么多「活」之后,人们不禁好奇,为什么 AI 会出现「幻觉」?

  02「幻觉」=「创造」?

  根据 AI 软件开发专家的建议,「思考 AI 幻觉的最好方法,是思考大型语言模型(LLMs)的本质。」

  本质上来说,大型语言模型(LLMs)的设计,仅仅是基于语言的「统计概率」,完全没有「现实世界的经验。」

  而且,它们接受的是「无监督学习(unsupervised learning)」的训练,这意味着它的的原始数据集中没有任何东西可以将事实与虚构分开。这就导致了,它们不知道什么是正确的,什么是不正确的;不理解语言所描述的基本现实,也不受其输出的逻辑推理规则的约束。

  因此,它们生成的文本在语法上、语义上都很好,但它们除了与「提示(prompt)」保持「统计学」上的一致性外,并没有真正的意义。

  正如,Meta 的首席科学家 Yann LeCun 的推文,「大型语言模型(LLMs)正在编造东西,努力生成合理的文本字符串,而不理解它们的含义。」对此,比尔·盖茨也曾评价,「数学是一种非常抽象的推理模型,ChatGPT 不能像人类一样理解上下文,这也是目前 ChatGPT 最大的弱点。」

  因此,从这个角度来看,是 AI 模型设计的根本缺陷导致了「幻觉」。

  此外,AI 领域的研究还表明,除了设计理念,AI 模型的训练数据集的限制也会导致「幻觉」,主要包括特定数据的「缺失」,和「压缩」。

  在 2021 年的一篇论文中,来自牛津大学和 OpenAI 的三位研究人员,确定了像 ChatGPT 这样的大型语言模型(LLMs)模型,可能产生的两大类虚假信息:

  来自于其训练数据集中不准确的源材料,如常见的错误概念,比如「吃火鸡会让人昏昏欲睡」;

  对其训练数据集中缺失的特定情况的推断;这属于前述的「幻觉」标签。

  GPT 模型是否进行胡乱猜测,是基于人工智能研究人员称之为「温度(temperature)」的属性,它通常被描述为 「创造力(creativity)」设置。

  如果「创造力」设置得高,模型就会胡乱猜测,产生「幻觉」;如果设置得低,它就会按图索骥,根据其数据集,给出确定的答案。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论