编译 | 卜金婷
自ChatGPT上线以来,一些研究人员的论文产出速度变得“突飞猛进”。
据美国《野兽日报》日前报道,美国田纳西大学健康科学中心的放射科医生Som Biswas,在4个月内使用ChatGPT写了16篇论文,并在4个不同的期刊上发表了5篇。
他将第一次尝试的论文提交给了《放射学》杂志,这是北美放射学会的一份同行评审月刊。同时,他也向编辑坦言:你看到的都是AI写的。几天后,这篇题为《ChatGPT与医学写作的未来》的论文通过了同行评审,并顺利发表。
《ChatGPT与医学写作的未来》论文
以ChatGPT为代表的大型语言模型(LLM)大大提升了生产效率,但它们也在科学界造成了翻天覆地的变化,许多专家担心学术出版的可信度受到侵蚀。
用AI在4个月内写了16篇文章
Biswas最新的一篇文章,是4月28日发表在《儿科放射学》杂志上的一篇评论。在这篇文章中,Biswas是唯一的作者,他在结尾处承认用ChatGPT写了这篇文章。
Biswas承认,他利用AI写的论文并不限于放射学专业。事实上,他还写了关于ChatGPT在军事、教育、农业、社交媒体、保险、法律和微生物学中作用的论文。并且,他已经成功地将这些文章发表在不同的小众学科期刊上,包括一篇关于计算机编程的论文发表在《美索不达米亚计算机科学杂志》,以及2封发表在《生物医学工程年鉴》上的致编辑的信——主题关于全球变暖和公共卫生。
Biswas说,他这样做的动机不仅仅是为了看到自己的署名。他想成为一项新兴技术的传播者,他认为这项技术将永远改变所有研究人员的工作方式。
那么,期刊为何会发表这类AI创作作品?
美国弗吉尼亚理工大学工程学教授、《生物医学工程年鉴》的主编Stefan Duma坦言,在过去的几个月里,他看到期刊收到的论文数量呈指数级增长——其中包括2篇来自Biswas的给编辑部的信。
Duma解释说,给编辑的信基本上是期刊的意见部分,其中对发表文章的写作类型和研究深度的限制较少。这也是为什么Duma愿意发表Biswas的2篇文章。
但是,他补充说,由于质量低下,他一直在拒绝更多由ChatGPT和其他LLM生成的文章。
此外,上文提及的两本期刊《儿科放射学》《美索不达米亚计算机科学杂志》,没有回应媒体的置评请求。
在微生物学家、科学诚信专家Elisabeth Bik看来,“至少Biswas承认他在使用ChatGPT,所以你必须给予他一些信任。”Bik说,“我已经遇到了很多其他人,他们也发表了大量令人难以置信的论文,同时也不承认ChatGPT。这些人发表得太多了。而这,实际上是不可能的。”
Bik对在学术界使用LLM技术有两种看法。一方面,她承认对于第一语言不是英语的研究人员来说,它可以成为一种宝贵的工具,可以用它来构建连贯的句子和段落。另一方面,她也一直在关注,很多研究人员明显滥用聊天机器人,仅在过去几个月里就发表了数十篇文章。
至于滥用产生的原因,Bik认为是“引用和出版物数量这两个衡量学术水平的指标。” 如果可以找到一种人为的方式来提高这些东西,这样就可以轻松地赢得更好的绩效指标。
Bik还担心对LLM的使用激增更会助长“论文工厂”泛滥。她的担忧也是学界和出版界共同关心的议题。
检测“论文造假”是个挑战
今年5月,由以学术出版伦理为重点的非营利组织出版伦理委员会(COPE)和国际科学技术和医学出版商协会(STM)召集了一场峰会。峰会汇集了国际研究人员,包括独立研究诚信分析师,以及来自资助机构和出版商的代表。
与会人员集中讨论了论文造假问题。
“随着AI的迅速发展,论文工厂生成越来越合理的原始数据的能力将快速提升。”澳大利亚悉尼大学的分子生物学家Jennifer Byrne说。
德国海德堡欧洲生物学会的图像数据完整性分析师Jana Christopher说:“我见过AI刚刚生成的假显微镜图像,但如何确凿证明图像是由AI生成的,仍然是一个挑战。”
自由柏林大学社会科学家和独立研究诚信分析师Anna Abalkina怀疑,由于同行评审过程的周期长,这些AI工具在学术文献中明显增多的时间,可能会有所延迟。
“这是我们第一次一群人聚在一起,共同采取行动以应对这个问题。”COPE的董事和研究诚信顾问Deborah Kahn表示,我们不能否认AI对科学研究有积极作用,但仍有必要区分使用AI编写的合法论文和完全捏造的论文。
峰会期间讨论的一种策略是,要求作者提供带有水印的实验原始数据,能够让出版商确认这些数据是真实的。
Christopher表示,目前提交原始数据的要求在出版商之间差异很大,所以需要制定跨出版商提交原始数据的统一标准。
“我无法想象这会在一夜之间发生转变,现实是许多机构没有资源提供数据管理的基础设施。”泰勒-弗朗西斯出版集团的出版伦理和诚信总监Sabina Alam表示,该标准需要时间来实施。
STM正在研发论文造假检测软件,同时通过其诚信中心收集有关其他类似工具的资源。这些工具既用于在提交时检测论文造假,也用于识别已经发表的假论文。
泰勒-弗朗西斯出版集团是正在使用这些工具的出版商之一。Alam表示,越来越多论文被标记为需要进一步检测是否存在不当行为。从2019年到2022年,她的团队处理的伦理案例数量增加了十多倍,今年到目前为止,数量已经与2022年持平。
参考链接:
https://www.thedailybeast.com/how-this-doctor-wrote-dozens-of-science-papers-with-chatgpt
相关文章
猜你喜欢