粗心学者忘删ChatGPT痕迹惨遭撤稿!AI论文太泛滥,学术圈被攻陷
编辑:Aeneas 好困【新智元导读】最近,一篇数学论文被发现ChatGPT痕迹,惨遭撤稿。打假人痛心疾呼:我们的学术圈,早已被AI写的论文吞没了!
科研圈,快被ChatGPT生成的论文吞没了!
8月9日,一篇收录于
本来是皆大欢喜的事,直到科学打假人Guillaume Cabanac在论文的第三页,发现了一处可疑的短语——「重新生成回复」(Regenerate Response)。
经常用ChatGPT的小伙伴,看到这个短语,都会会心一笑。
「Regenerate Response」是网页版ChatGPT上的一个按钮,现在更新成了「Regenerate」。
Cabanac火速把这一发现po到了PubPeer上,这也意味着,事情闹大的话,这篇论文基本就被判死刑了。
果然,论文作者不得不承认,在写作论文稿件时确实使用了ChatGPT。
论文的通讯作者为Abdullahi Yusuf,他有两个工作单位,一个是伊斯坦布尔的Biruni University,一个是贝鲁特的Lebanese American University。
这篇论文在5月被提交,7月发出了修订版,在两个月的同行评审期间,都没有人发现其中的异常。
现在,
期刊的同行评审和研究诚信主管Kim Eggleton表示,「这种行为违反了我们的道德政策。」
只是冰山的一角
然而,这篇论文,只是少数被曝光出来的「倒霉」选手。
从今年4月以来,Cabanac已经「打假」了十几篇论文,挂到了PubPeer上。它们无一例外,都留下了ChatGPT的使用痕迹——「Regenerate response」或「作为一个语言模型,我……」
所以,写论文时究竟可不可以用ChatGPT呢?
对于这个问题,Elsevier(爱思唯尔)和Springer Nature(施普林格·自然)在内的许多出版商都有明确规定:大语言模型工具用是可以用的,只要作者声明自己使用了即可。
不过目前看来,大部分使用了ChatGPT的同行评审论文,都没有声明这一点。
已经被逮到的论文,只是因为作者粗心,没有小心清除掉ChatGPT留下的痕迹而已。
- 免责声明
- 本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。