0°

ChatGPT/GPT-4/Llama电车难题大PK!小模型道德感反而更高?

  【新智元导读】微软对大语言模型的道德推理能力进行了测试,但在电车问题中大尺寸的模型表现反而比小模型差。但最强大语言模型GPT-4的道德得分依旧是最高的。

  「模型有道德推理能力吗?」

  这个问题似乎应该跟模型生成的内容政策挂钩,毕竟我们常见的是「防止模型生成不道德的内容。」

  但现在,来自微软的研究人员期望在人类心理学和人工智能这两个不同的领域中建立起心理学的联系。

  研究使用了一种定义问题测试(Defining Issues Test,DIT)的心理评估工具,从道德一致性和科尔伯格的道德发展的两个阶段来评估LLM的道德推理能力。

  论文地址:https://arxiv.org/abs/2309.13356

  而另一边,网友们对模型是否有道德推理能力这件事,也是吵得不可开交。

  有人认为测试模型是否有道德能力本身就是愚蠢的,因为只要给模型适当的训练数据,它就能像学会通用推理那样学会道德推理。

  但也有人从一开始全盘否定了LLM具有推理能力,道德也是如此。

  但另一些网友对微软的这项研究提出了质疑:

  有人认为道德是主观的,你用什么数据训练模型,就会得到什么反馈。

  有人则认为研究人员都没有弄清什么是「道德」,也不了解语言本身的问题,就做出了这些糟糕的研究。

  并且Prompt太过混乱,与LLM的交互方式不一致,导致模型的表现非常糟糕。

  虽然这项研究受到了众多质疑,但它也有着相当重要的价值:

  LLM正广泛应用于我们生活中的各种领域中,不仅是聊天机器人、办公、医疗系统等,现实生活中的多种场景都需要伦理道德的判断。

  并且,由于地域、文化、语言、习俗的不同,道德伦理的标准也有不尽相同。

  现在,我们亟需一个能适应不同情形并做出伦理判断的模型。

  模型道德推理测试

  道德理论的背景

  在人类道德哲学和心理学领域,有一套行之有效的道德判断测试系统。

  我们一般用它来评估个人在面临道德困境时,能否进行元推理,并确定哪些价值观对做出道德决定至关重要。

  这个系统被称为「定义问题测试」(DIT),微软的研究人员用它来估计语言模型所处的道德判断阶段。

  DIT旨在衡量这些语言模型在分析社会道德问题和决定适当行动方针时所使用的基本概念框架,从根本上评估其道德推理的充分性。

  DIT的基础是科尔伯格的道德发展理论,这一理论认为,个体从婴儿期到成年期的道德推理经历了一个发展过程。

  并且,道德推理的发展意味着表示对复杂社会系统中道德责任的理解能力得到了提高。

  科尔伯格提出的认知道德发展的六个阶段可分为三个层次:前常规阶段、常规阶段和后常规阶段。

  科尔伯格认为,前常规阶段1和2通常出现在幼儿身上,而常规阶段3和4则主要出现在成年人身上。只有少数成人(20%至25%)能达到最终的两个后常规阶段。

  CMD理论的各个阶段表明了处理道德问题的不同思维方式。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论