人工智能已经深度介入科学出版,但这场变革几乎是在“无声状态”下完成的。
最新一项覆盖全球1645名研究人员的调查显示,同行评审体系正经历自建立以来最显著的一次转向:超过一半的审稿人已经在评估论文时使用人工智能工具。 然而,与这一快速变化形成鲜明对比的是,绝大多数研究人员并不清楚出版商是否、以及如何在发表流程中使用了AI。
科学验证的核心机制,正在变得前所未有地不透明。
同行评审中的 AI,已成“默认选项”
调查数据显示,53%的同行评审者在审稿过程中使用过人工智能,其中近四分之一表示过去一年明显增加了使用频率。 相比之下,关于是否应当使用、如何使用、是否需要披露,几乎没有统一规则。
不少研究者直到被系统提醒“请勿使用AI”时,才意识到这是一个伦理问题。 一位审稿人在调查中坦言,他此前从未认真思考过这一点。
人工智能并不是突然闯入同行评审,而是在缺乏公开讨论、正式培训和明确治理的情况下,逐步成为系统的一部分。
出版流程提速了,但信任没有
研究人员对人工智能的态度明显分裂。
大约三分之二的受访者认为,出版商使用AI有助于加快论文处理速度; 但只有
这种信息不对称,正在形成一条信任裂缝。
在开放回答中,约五分之一的研究人员将“规则不清晰”和“缺乏治理”视为负责任使用人工智能的最大障碍。
人工智能
尽管人工智能的使用率很高,但其用途仍然相对保守。
在使用AI的审稿人中,大多数人只是让它辅助写评审意见、总结论文内容或润色语言。真正让AI参与方法学评估、统计合理性检查或研究设计审视的比例,不到五分之一。
同样的趋势也出现在论文写作中。大量研究者使用AI来提升表达清晰度,却很少让它参与数据分析或实验逻辑推演。
人工智能目前更多被视为“效率工具”,而不是用来强化科学严谨性的核心手段。这也意味着,它在提升可重复性、发现隐蔽错误方面的潜力,尚未被充分挖掘。
没有系统培训,研究人员只能自学
在如何使用人工智能这件事上,大多数研究人员处于“自生自灭”的状态。
超过三分之一的人表示完全靠自学摸索,只有约三成从所在机构获得过指导,而出版商直接提供培训的比例更低。统一标准、明确边界、可操作的最佳实践,仍然缺位。
早期职业研究人员是人工智能的主要使用者。他们使用频率更高,也更愿意尝试新工具;而资深评审则更为谨慎,甚至完全拒绝在同行评审中使用AI。
这在一定程度上反映了代际差异,也暴露出制度层面的准备不足。
不同地区,对 AI 的期待完全不同
调查还显示出明显的地域差异。
在部分发展中地区,人工智能被视为一种“平衡器”,尤其对非英语母语的研究人员而言,它降低了语言门槛、扩大了参与机会。而在北美和欧洲,研究者更关注偏见、滥用和缺乏监管的问题。
同一种技术,在不同学术环境中承载着截然不同的期待与担忧。
透明,才是关键一步
研究人员并非一边倒地反对人工智能。多数人承认,它有助于提升稿件质量,但同时也担心错误、滥用以及科学诚信受损。
问题不在于是否使用AI,而在于是否公开、是否规范、是否可追责。
报告建议,出版商应明确披露所有人工智能的使用场景,建立伦理监督机制;研究机构应将AI素养纳入科研训练体系;资助方和政策制定者应将透明度要求写入规则;工具开发者则需要开放更多关于系统运作和训练数据的信息。
科学不能在“黑箱”中前进
同行评审正在发生变化,这是事实。但当这种变化几乎不可见时,风险也随之放大。
如果人工智能已经成为决定哪些研究进入科学记录的重要力量,那么让它继续“隐形运作”,只会削弱信任、放大争议。
把人工智能带到光明中,是科学界必须迈出的下一步。
本文译自:studyfinds .由olaola编辑发布