一张截图流出:基金委已接入大模型,AI 写基金,必查必通报?

研发家 | 2026-03-11 0

最近网上流传了一张截图,具体内容是某单位发布了新通知,说国自然申报系统后台疑似已接入大模型相关能力一旦被判定存在不规范使用AI生成内容的情况,可能被通报依托单位并引发后续科研诚信与管理流程。

图源:网络

 

“AI写的本子一定会查出来还会通报”,真能查?查到什么程度?靠什么标准?说白了,“AI查重”那套逻辑:最后往往不是抓住了“造假的人”,而是折腾了“认真写的人”。更何况现在的AI痕迹这件事,本身就很玄:同样一句话,有人觉得“像AI”,有人觉得“就是书面语”;有的老师写作本来就规整,反而更容易被怀疑。

于是争论就来了:如果所谓“检测”是黑箱,阈值不公开、规则不解释、误伤也没说法,那它就不只是技术工具,而是一种管理姿态——一句“能查出来”可以让所有人自我审查、人人心里发毛。反过来讲,如果基金委确实要求写“AI使用说明”,那也说明它至少在制度层面默认“有人会用”,重点可能是“你用到哪里、有没有负责、有没有违规”。所以“能不能查出来”这事,最后很可能不是算力多强的问题,而是“要不要抓、抓谁、抓到什么程度”的问题。

2026 年国自然申报系统确实有调整方向,系统中会新增AI 使用相关填写模块,要求申请人对 AI 使用情况进行如实说明,这一导向是明确的。基金委的核心态度并非禁止AI 工具,而是要求使用透明、责任到人。

这并非禁止使用AI工具,而是划定了“人是第一责任人” 的绝对红线。其主要目的是防范因AI工具的“幻觉”现象导致申请书中出现无意识的不实内容。它警示所有申请人:技术是助手,诚信是基石,任何工具都不能成为学术表述失实的借口。这些内容关乎标书核心价值,是评审重点,使用AI必须详细标注,模糊表述即踩红线。

  • 立论依据综述与逻辑梳理

用AI(如ChatGPT、Consensus)检索文献、梳理研究脉络或知识缺口,需说明使用方式及人工核实过程。示例:“在‘国内外研究现状’部分,使用ChatGPT-4对近五年‘肠神经胶质细胞调控肝纤维化’文献摘要聚类,生成初步框架;申请人精读核心文献后核实重写核心观点。

  • 研究假说与创新点提炼

用AI辅助凝练、优化创新点表述,需披露。示例:“在‘项目创新之处’,使用文心一言优化3个初步创新点的表述逻辑;最终内容由申请人确定并经团队论证。”

  • 技术路线与实验方案设计

用AI生成或优化实验步骤、试剂配方,需说明参与范围及验证过程。示例:“‘免疫荧光染色方案’中,用ChatGPT-4获取多色抗体组合优化建议;申请人查阅文献并通过预实验验证,确定最终方案。

  • 机制示意图绘制

用AI(如DALL·E 3)生成图表初稿,需声明使用及人工修正过程。示例:“图2机制示意图初版由DALL·E 3生成;申请人用Adobe Illustrator重绘,修正科学错误并补充细节,经专家审核确认。”

目前市面上所有 AI 文本检测手段,都做不到百分百精准识别。技术层面多依靠文本特征、句式逻辑、词汇分布做判断,专业科研文本本身就具备严谨、规整、逻辑清晰的特点,和AI 生成内容的特征存在天然重叠。长期规范写作的科研人员,文本反而容易被系统标记为高风险,经过深度人工修改的 AI 内容,检测难度会大幅提升。所谓接入特定大模型端口实现溯源识别,现阶段不具备普遍落地的技术条件,也无官方落地信息。

基金委和依托单位关注的重点,从来不是有没有点开过AI 工具,而是使用方式是否越过科研诚信底线。直接用 AI 生成立项依据、创新点、研究内容、技术路线等核心板块,整段复制拼接后简单修改,属于明确的高风险行为。用 AI 做语言通顺调整、标点格式整理、简单文献翻译对照,这类辅助性操作本身不构成违规。

因此,申请人在使用AI工具时,需始终保持警惕,明确区分哪些操作属于合理辅助,哪些可能触及红线。科研活动本质上是人类智慧的结晶,任何技术手段都应服务于这一核心目标,而非替代或扭曲它。基金委的态度表明,透明度和责任感是关键,申请人必须清楚记录AI参与的具体环节,并对其结果进行充分验证和修正。

赞一个

分享:
打开微信扫一扫
0
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
更多服务
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版无忧
投稿无忧
翻译服务
润色服务
自助查重
排版校对
科研绘图