0°

粗心学者忘删ChatGPT痕迹惨遭撤稿!AI论文太泛滥,学术圈被攻陷

  本来是皆大欢喜的事,直到科学打假人Guillaume Cabanac在论文的第三页,发现了一处可疑的短语——「重新生成回复」(Regenerate Response)。

  经常用ChatGPT的小伙伴,看到这个短语,都会会心一笑。

  「Regenerate Response」是网页版ChatGPT上的一个按钮,现在更新成了「Regenerate」。

  Cabanac火速把这一发现po到了PubPeer上,这也意味着,事情闹大的话,这篇论文基本就被判死刑了。

  果然,论文作者不得不承认,在写作论文稿件时确实使用了ChatGPT。

  论文的通讯作者为Abdullahi Yusuf,他有两个工作单位,一个是伊斯坦布尔的Biruni University,一个是贝鲁特的Lebanese American University。

  这篇论文在5月被提交,7月发出了修订版,在两个月的同行评审期间,都没有人发现其中的异常。

  现在,决定撤回这篇论文,理由是作者在提交论文时,并没有声明自己使用了ChatGPT。

  期刊的同行评审和研究诚信主管Kim Eggleton表示,「这种行为违反了我们的道德政策。」

  只是冰山的一角

  然而,这篇论文,只是少数被曝光出来的「倒霉」选手。

  从今年4月以来,Cabanac已经「打假」了十几篇论文,挂到了PubPeer上。它们无一例外,都留下了ChatGPT的使用痕迹——「Regenerate response」或「作为一个语言模型,我……」

  所以,写论文时究竟可不可以用ChatGPT呢?

  对于这个问题,Elsevier(爱思唯尔)和Springer Nature(施普林格·自然)在内的许多出版商都有明确规定:大语言模型工具用是可以用的,只要作者声明自己使用了即可。

  不过目前看来,大部分使用了ChatGPT的同行评审论文,都没有声明这一点。

  已经被逮到的论文,只是因为作者粗心,没有小心清除掉ChatGPT留下的痕迹而已。

  只要作者足够细心,用没用ChatGPT,又有谁能知道呢?

  打假人Cabanac表示,目前自己发现的论文,才只是冰山一角。

  在爱思唯尔期刊中,他也发现了一些典型的ChatGPT「黑话」。

  比如一篇8月3日发表在上的论文,主题是电子商务对发展中国家化石燃料效率的影响。

  其中,Cabanac就注意到,文章里有些方程完全就是不知所云。

  不过最大的可疑之处在于,在某张表格上方,出现了这样一行字:「请注意,作为一个语言模型,我无法生成具体的表格或进行测试……」

  对此,Elsevier的一位发言人表示,他们已经发现了这个问题,正在对这篇论文进行调查。

  AI的大作,已经完美混进了人类作品

  那么,一篇论文如果完全或部分由AI写成,但作者不说,我们就没有办法发现了吗?

  大部分时候,的确如此。

  最近美国南佛罗里达大学的一项研究表明,AI生成的文字内容,可能已经无法与人类写的区分开来了。

  他们邀请了72名世界顶级语言学期刊的专家,要求他们来审查各种研究摘要,但即使是这样的专业人士,也很难识别出哪些摘要是人写的,哪些是AI写的。

  在62%的情况下,他们会被AI骗过去。

  具体来说,每位专家都被要求检查四份摘要,能全部正确识别出来作者是人还是AI的,一个都没有。

  甚至13%的专家,一个都没做对。

  专家们的识别依据是语言习惯和文体特征,尽管他们的分析头头是道、合乎逻辑,但总体的阳性识别率也只有38.9%。

  不过,英国科研诚信办公室的Matt Hodgkinson表示,有些论文也会包含一些微妙的痕迹,让我们可以隐约发现ChatGPT的「身影」。

  比如,一些常见于AI的特定语言模式,以及翻译得怪里怪气的「奇妙短语」。

  此处浅浅地感受一下:深度神经网络——profound neural organization(深刻神经组织) 。

  以及人工智能——counterfeit consciousness(仿制意识/虚伪意识);大数据——colossal information(巨信息);云计算—— haze figuring(霾运筹);GPU——designs preparing unit(设计准备器) ;CPU——focal preparing unit(焦点准备器)等等。

  除此之外,AI在生成参考文献时也是相当的「天马行空」,而这就可以作为同行评审时的重要参考。

  例如,(《撤稿观察》)就曾揭露过一篇关于马陆(millipedes)的预印本论文是由ChatGPT编写的。

  在一位研究人员发现文章中引用的一篇「论文」竟然是自己写的后,注意到了这里面提到的大量参考文献,都是假的。

  类似的,丹麦国家血清研究所(State Serum Institute)的微生物学家Rune Stensvold也遇到了AI伪造参考文献的问题。

  当时,一名学生向AI聊天机器人寻求有关肠道寄生虫——芽囊原虫属(Blastocystis)的文献建议,而这个聊天机器人则凭空编造了一篇以Stensvold为作者的参考文献。

  于是,这位学生就去找了Stensvold,表示希望能获取这篇他发表于2006年的「论文」。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论