0°

ChatGPT可伪造看似合理“支持”科学假说的试验数据

  一项日前发表在《美国医学会杂志·眼科学卷》杂志上的新研究说,ChatGPT背后的技术可以伪造“看似真实”的试验数据,看上去能“支持”未经验证的科学假说。

  2023年11月2日,在英国布莱奇利园,一名参会者经过首届人工智能安全峰会的宣传展板。图源:新华社

  ChatGPT是由美国开放人工智能研究中心(OpenAI)开发的基于大语言模型的聊天机器人程序。今年3月,OpenAI推出支持ChatGPT运行的大语言模型新版本GPT-4。此后,GPT-4又被拓展了高级数据分析(ADA)功能。ADA是一种结合了计算机编程语言Python的模型,可以执行统计分析和创建数据可视化。

  据英国《自然》杂志网站近日报道,意大利卡坦扎罗大学等机构研究人员先要求GPT-4 ADA创建一个关于圆锥角膜患者的数据集。发生这种角膜病变的部分患者需接受角膜移植,主要有两种手术方法:一种是穿透性角膜移植术,即切除全层病变角膜,以捐赠者的健康组织取代;另一种是深板层角膜移植术,仅替换病变的部分角膜组织,保留角膜内层完整。

  随后,研究人员要求GPT-4 ADA编造临床数据,以支持深板层角膜移植术比穿透性角膜移植术效果更好的结论。

  人工智能生成数据包含160名男性和140名女性参与者。数据显示,接受深板层角膜移植术的参与者在视力测量和眼部成像测试中得分均高于接受穿透性角膜移植术的参与者。但该“结论”与真实临床试验结果并不一致。2010年报告的一项有77名参与者的试验显示,在术后长达两年时间内,两种手术效果相似。

  英国曼彻斯特大学生物统计学家杰克·威尔金森等人检查这些虚假数据发现,许多参与者性别与名字不匹配,术前和术后进行的视力测量及眼部成像测试之间缺乏相关性等。

  人工智能捏造看似合理的科学数据的能力增加了学术界对科研诚信的担忧。研究人员表示,这项研究的目的就是希望对此提高警惕。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论