为什么“在科学同行评审中使用AI人工智能充满危险。”

sleuthPubpeer2025-05-05 12:18:46新加坡

 提示欢迎点击上方「Pubpeer」↑关注我们!

编者按


最新、最快、最真实的科研匿名评价论文报道;关注高校院所科研生态,欢迎提供新闻线索。联系邮箱:Pubpeer@qq.com


2025 年早些时候,阿德莱德大学公共卫生学院的高级研究员蒂莫西?休?巴克,在其学术手稿的同行评审流程里,发现了一些异常状况。


巴克长期致力于确保可靠证据应用于政策等领域的研究,此次提交评审的论文围绕系统评价实施展开。同行评审在学术出版环节意义重大,本应发挥严格评估作用。然而,今年 1 月巴克收到的评审意见呈现出诸多怪异之处。评审意见风格单一、缺乏深度,既未标注需改进内容的具体位置,也未给出实际示例。例如,评审员要求删除冗余解释,却不说明哪些属于冗余;给出的参考文献排序方式不合期刊规范;甚至针对不存在的副标题发表意见,还对无需存在的 “讨论” 部分提建议。

巴克为验证评审是否由 AI 生成,将手稿上传至 ChatGPT - 4o 等三个 AI 模型,对比发现模型输出与评审意见极为相似。而副主编与评审员的反馈质量差异巨大,副主编的意见清晰且有帮助,评审员的则混乱无用。

巴克向主编反映了问题,主编对其表示感谢。尽管无法确证评审由 AI 生成,但相似性已引发关注。AI 虽为研究带来便利,可用于同行评审时,由于目前指导意见混杂、效果存疑,需要严格监督。期刊和编辑应确保作者有知情权和选择权,评审员需如实披露 AI 使用情况,避免 AI 不当应用影响学术成果质量。这一事件经 The Conversation 于 2025 年 4 月 28 日报道,揭示了 AI 参与学术同行评审潜藏的风险 。

https://www.startupdaily.net/topic/artificial-intelligence-machine-learning/what-i-noticed-raised-my-concerns-why-using-ai-in-scientific-peer-review-is-fraught-with-danger/


来源:公众号pubpeer原创,文章涉及作者姓名都为音译名字;转载贴子请注明出处,若没注明pubpeer公众号出处,构成侵权。




声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢


Pubpeer专注科研工作者。关注请长按上方二维码。投稿、合作、转载授权事宜请联系本号,回复2025微信ID:BikElisabeth  或邮箱:Pubpeer@qq.com