用ChatGPT同行评议?美机构这样表态

  今年4月初,美国匹兹堡大学神经学家Greg Siegle在一次会议上听到了他觉得“非常可怕”的事情。一位美国国立卫生研究院(NIH)的同行评议专家说,人工智能(AI)工具ChatGPT已成为他起草审查报告时不可或缺的工具,并表示使用ChatGPT可以节省大量时间,因为只需将提案的部分内容,如摘要、目标和研究策略等粘贴到AI中,然后要求其评估信息即可。

  然而据《科学》报道,NIH和其他资助机构对这一做法表示反对。6月23日起,NIH禁止ChatGPT等在线生成AI工具用于“分析和制定同行评议评论”,澳大利亚研究委员会(ARC)也从7月7日起禁止使用AI生成同行评议。

  其他机构也在制定对策。NIH一位发言人说,他们已经成立了一个内部工作组,研究是否可以适度使用AI作为价值审查过程的一部分。

  ChatGPT和其他大型语言模型利用庞大的信息数据库进行训练,以生成近乎人类编写的文本。这让一些科学出版商担心出现伦理问题和事实是否准确,并限制使用这些模型来撰写论文,包括《科学》在内的一些期刊也禁止审稿人使用它们。

  对于资助机构来说,保密性是最重要的。当提案的一部分被输入在线AI工具时,这些信息就成为其训练数据的一部分。NIH担心数据将被发送、保存、查看甚至使用。

  批评人士还担心,AI撰写的评论容易出错,因为它们取材于现有信息,对非主流观点有偏见,且缺乏推动科学创新的创造力。NIH官员认为,他们所看重的原创性思想在这个过程中丧失,并且被同质化,这甚至可能构成剽窃。

  一名澳大利亚研究人员运营的匿名Twitter账户ARC_Tracker报告称,一些科学家收到的审稿意见似乎是由ChatGPT撰写的,有些人把部分论文粘贴到ChatGPT上,得到了类似的评价。ARC_Tracker指出,有的科学家可能认为ChatGPT产生了有意义的反馈,但实际上并非如此。

  美国西北大学伦理学者Mohammad Hosseini认为NIH的禁令目前是合理的。“考虑到NIH处理的问题和项目的敏感性,以及AI工具的新颖性,采取谨慎的措施是有必要的。”

  然而,也有一些研究人员表示,AI提供了一个改善同行评议过程的机会。美国爱荷华大学精神病遗传学家Jake Michaelson说,审稿人可以使用这些工具来检查他们的评论,看是否忽略了某些内容,以帮助他们评估自己领域之外的工作。

  随着时间的推移,形势可能会发生变化。几位科学家在NIH的博客上指出,一些生成式AI模型可以离线工作,并且不会违反保密原则。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论