AI辅助写论文,科技期刊怎么看

研发家 | 2025-12-12 0

人工智能(AI)已全面渗透到科研活动的各个环节。在提升效率的同时,AI也催生了代写论文、伪造数据乃至隐性的“思想抄袭”等新型学术不端行为,其手法日益隐蔽,给学术诚信带来全新挑战。科技期刊应该如何甄别、应对和防范?近日,科技日报记者与《柳叶刀》副主编萨宾娜·克莱纳特(Sabine Kleinert)就此进行了对话。

记者:对于AI引发的新型科研不端问题,如同行评审、数据核查等传统的科研诚信评估方法,可能面临失效的风险。科技期刊该如何发挥“守门人”的作用?

萨宾娜:我认为,科研过程中生成式AI的使用程度正与日俱增。目前,我们主要靠作者的“自我声明”。《柳叶刀》系列期刊的投稿页面新设了一个复选框,询问作者是否在其研究成果的任何部分中使用了生成式AI。如果作者选择了“是”,我们会要求他们详细说明具体使用的大语言模型的名称、版本、确切提示词、使用目的以及在文章手稿中的位置,并会将这些信息与论文一同发表。文章手稿的致谢部分也要披露这部分信息。

为确保对编辑、审稿人和读者的透明度,作者必须恰当声明生成式AI的使用情况,并对其作品的原创性、准确性和完整性负最终责任,否则编辑可能因其不当使用AI而拒稿。

记者:这个方法效果怎样?

萨宾娜:这是一个很大的问题。回顾过去,我们发现只有7%的作者表示,在其投稿的研究中使用过生成式AI。这与一些关于生成式AI使用的调查结果大相径庭——调查中超过50%的用户表示有使用生成式AI。显然,我们确实发现很多作者没有准确披露他们使用了生成式AI。

最近,我们注意到一些未声明的人工智能生成内容(AIGC)不恰当使用的明显迹象,主要表现为“幻觉式引用”。我们的编辑会检查参考文献,发现一些没有被标记的引用,比如有DOI(数字对象唯一标识符,相当于数字资源的“身份证”)却无法检索到对应的引用。编辑主动核实这些引用是否真实存在后发现,一些论文中有多达10至15个不存在的引用。

记者:发现“幻觉式引用”,会如何处理?

萨宾娜:如果一篇论文中大部分内容不当使用了AI也未予以声明时,我们即使接收最后也会拒稿。我们会告知作者,这样的做法是不恰当的。如果这种情况非常普遍,我们可能会与作者所在机构沟通,说明他们需要接受关于生成式AI合理使用的教育。

记者:因为这种情况拒稿的论文比例是多少?

萨宾娜:很少。过去一个月只发生几次。这实际上是一个非常新的现象,我不知道未来还会看到多少类似的情况。

此外,还有一类情况。我们会拒收没有任何实质内容的通讯投稿。每天我们都能看到约5篇明显由生成式AI写的这类稿件,内容非常套路、毫无新意,完全没有实质性科学发现。

记者:在科研论文撰写、审稿和出版过程中,哪些情况是不允许使用AI的?

萨宾娜:《柳叶刀》系列期刊不支持使用AI辅助技术替代研究人员的工作,如提出科学见解、分析和解释数据、得出科学结论或提出建议。

目前,我们不允许在同行评审过程中使用生成式AI。因为审稿人可能会将未发表的论文输入到公共系统中,这会破坏保密性。同样,在对论文进行批判性评价时,甚至评论作者在撰写研究的相关评论时,也不能使用生成式AI。在利用生成式Al创建图形或插图时,应主要用作头脑风暴和提出图像概念的工具。

记者:什么情况下可以使用生成式AI?

萨宾娜:为提高论文的可读性,我们支持作者在写作过程中使用生成式AI改善语法和语言表达,查阅已有的研究成果或对其进行总结,这些都是合理的用途。

我理解一些研究者存有顾虑,可能他们认为声明使用AI会影响他们的论文,但事实并非如此。我们只希望在提交的研究论文中,诚实、公开地声明是否使用了AI。最终,还是要由人类进行监督、负责和承担责任。

记者:科技期刊如何应对生成式AI可能带来的科研诚信危机?

萨宾娜:我认为在这个领域进行监管非常困难,因为AI技术已经普及,大家都在使用。最好的办法是明确指出哪些情况是不适当的,然后在其他方面保持诚实和透明,最终由使用者承担全部责任。

《柳叶刀》编辑部内部成立了一个研究诚信工作组,主要关注两件事:一是紧跟最新政策,团队已经制定了《柳叶刀》系列期刊关于生成式AI的内部政策;二是监控任何正在进行的比较难处理的案例,并观察采取的适当措施。同时,我们也会关注外部指南的变化。比如最近,国际出版伦理委员会更新了他们的撤稿指南。我们会关注这些内容,并将其纳入《柳叶刀》的内部流程,依据最新的指南来指导我们的决策。

《柳叶刀》编辑部正在筹备成立科研诚信委员会,但目前还处于起步阶段,计划在明年二月召开启动会。生成式AI及其对科研诚信的影响,将会是委员会关注的重要内容之一。

记者:科研人员和编辑在使用生成式AI时,应该考虑哪些原则?

萨宾娜:人们应当将AI更多地视为一种辅助工具。我一直觉得AI这个概念中的“智能”意味着洞察力、洞见,而AI并没有真正具备这些能力。

研究人员、编辑和出版机构在了解如何最优使用生成式AI时,必须谨慎处理一些注意事项和陷阱。幻觉、偏见、种族主义、模型崩溃,以及违反科研诚信的行为都有可能损害公众对科学的信任。目前,生成式AI模型产生的内容往往在表面上听起来合理,但实际上却缺乏洞察力、新颖性和实际意义。生成式AI使下一代研究人员面临着巨大的去技能化风险。

赞一个

分享:
打开微信扫一扫
0
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
更多服务
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版无忧
投稿无忧
翻译服务
润色服务
自助查重
排版校对
科研绘图