提示:欢迎点击上方「Pubpeer」↑关注我们!
2025 年早些时候,阿德莱德大学公共卫生学院的高级研究员蒂莫西?休?巴克,在其学术手稿的同行评审流程里,发现了一些异常状况。
巴克长期致力于确保可靠证据应用于政策等领域的研究,此次提交评审的论文围绕系统评价实施展开。同行评审在学术出版环节意义重大,本应发挥严格评估作用。然而,今年 1 月巴克收到的评审意见呈现出诸多怪异之处。评审意见风格单一、缺乏深度,既未标注需改进内容的具体位置,也未给出实际示例。例如,评审员要求删除冗余解释,却不说明哪些属于冗余;给出的参考文献排序方式不合期刊规范;甚至针对不存在的副标题发表意见,还对无需存在的 “讨论” 部分提建议。
巴克为验证评审是否由 AI 生成,将手稿上传至 ChatGPT - 4o 等三个 AI 模型,对比发现模型输出与评审意见极为相似。而副主编与评审员的反馈质量差异巨大,副主编的意见清晰且有帮助,评审员的则混乱无用。
巴克向主编反映了问题,主编对其表示感谢。尽管无法确证评审由 AI 生成,但相似性已引发关注。AI 虽为研究带来便利,可用于同行评审时,由于目前指导意见混杂、效果存疑,需要严格监督。期刊和编辑应确保作者有知情权和选择权,评审员需如实披露 AI 使用情况,避免 AI 不当应用影响学术成果质量。这一事件经 The Conversation 于 2025 年 4 月 28 日报道,揭示了 AI 参与学术同行评审潜藏的风险 。
https://www.startupdaily.net/topic/artificial-intelligence-machine-learning/what-i-noticed-raised-my-concerns-why-using-ai-in-scientific-peer-review-is-fraught-with-danger/
来源:公众号pubpeer原创,文章涉及作者姓名都为音译名字;转载贴子请注明出处,若没注明pubpeer公众号出处,构成侵权。
声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢
Pubpeer,专注科研工作者。关注请长按上方二维码。投稿、合作、转载授权事宜请联系本号,回复2025,微信ID:BikElisabeth 或邮箱:Pubpeer@qq.com