sciencepub 学术助力发表了一些示例说明如何在不触碰到科研诚信底线的情况下合理使用ai 工具

最近有个消息传得挺火,说国自然基金委的系统接入了AI大模型。网上有人把截图发出来了,单位发通知说后台疑似有AI能力,要是被发现有不规范使用,可能会通报依托单位,还会触发科研诚信管理。这个事其实挺敏感的,大家都在讨论AI写的本子能不能查出来、怎么查、标准是什么。其实这事儿跟学术诚信有关,怕误伤了那些认真写的人。现在AI生成的内容有时候很模糊,同样一句话有的人觉得是AI写的,有的人觉得就是普通文字。有些老师写得特别规整,反而容易被怀疑。大家都在争论说,如果检测是黑箱的话,没有公开的标准和解释,那它就不是单纯的工具了,而是一种管理姿态了。毕竟一句话说能查出来,所有人都会自我审查,心里发毛。 但反过来讲,如果基金委真要求写个AI使用说明,那也说明他们默认有人会用了。关键是你用到哪里、有没有负责、有没有违规。所以“能不能查出来”,其实不是算力强不强的问题,而是“要不要抓、抓谁、抓到什么程度”的问题。不是禁止用AI工具,而是划定了一个绝对红线:人是第一责任人。 这次SciencePub学术助力发表推出了一篇文章来说明这个问题。文章给出了四个方面的建议:立论依据综述与逻辑梳理时使用AI如ChatGPT、Consensus检索文献;研究假说与创新点提炼时使用AI辅助凝练优化;技术路线与实验方案设计时使用AI生成或优化实验步骤;机制示意图绘制时使用DALL·E 3生成图表初稿。这些建议都是在制度层面默认了有人会用AI工具,但重点是要明确你用到哪里、有没有负责、有没有违规。 比如在立论依据综述和逻辑梳理中,可以用ChatGPT-4对近五年文献摘要聚类生成初步框架,然后申请人再去精读核心文献核实重写核心观点。在研究假说和创新点提炼中可以用文心一言优化初步创新点的表述逻辑,最终内容由申请人确定并经团队论证。在技术路线和实验方案设计中可以用ChatGPT-4获取多色抗体组合优化建议,然后申请人查阅文献并通过预实验验证确定最终方案。在机制示意图绘制中可以先用DALL·E 3生成初稿,然后再用Adobe Illustrator重绘修正错误补充细节。 这次SciencePub学术助力发表还给出了几个示例说明如何在不触碰到科研诚信底线的情况下合理使用AI工具:在“国内外研究现状”部分使用ChatGPT-4对近五年文献摘要聚类生成初步框架;在“项目创新之处”使用文心一言优化3个初步创新点的表述逻辑;在“免疫荧光染色方案”中用ChatGPT-4获取多色抗体组合优化建议;图2机制示意图初版由DALL·E 3生成。这些示例都强调了保持警惕区分合理辅助和违规行为的重要性。 总之这次SciencePub学术助力发表提供了一些建议帮助大家合理使用AI工具来辅助科研工作。大家一定要明确自己使用范围和验证过程,避免触及红线。科研活动本质上还是人类智慧的结晶,技术手段应该服务于这个目标而不是替代它。