人工智能可以为科学文章提供可靠的审稿人吗?
观察围绕聊天框和生成人工智能 (AI) 的讨论很有趣。人们对人工智能的巨大潜力和对它可能对科学出版评估系统造成损害的担忧意见不一。 但事实上和类似技术只是反映了当前学术出版系统已经存在的问题。就像十年前一样,开放获取成为学术交流的替罪羊。现在,生成式人工智能是当前出版系统的新替罪羊。这些担忧基于一个基本假设:当前系统正在运行(这可能不完全正确)。
该领域存在众所周知的问题,例如掠夺性期刊 英国电话号码清单 医学研究中令人担忧的欺诈行为以及同意操纵引用的研究人员更有可能发表其文章。同样令人担忧的是揭示金钱换取作者身份的细节,其价格取决于作品的出版地点和研究领域。对这些问题的调查导致了一系列撤回。就连该系统的“自我修正性”也不起作用,被撤回的文章被大量引用,其中超过四分之一的引用发生在撤回之后。 当然,鉴于人工智能目前无法通过引用记录其数据源的来源,人工智能在学术出版中的新颖性引起了人们的担忧。
https://zh-cn.phonenumbersa.com/wp-content/uploads/2024/01/download-4op-2-300x150.jpg
因为缺乏这些数据源的标识符意味着无法复制大型语言模生成的结果。在这种环境下,虚假数据的产生令人担忧。然而,ChatGPT“不是这些问题的制造者;相反,它让这个问题在更大范围内存在。” 1 这就引入了解决该问题的新策略:使用人工智能进行科学仲裁,并通过值得信赖的系统为研究工作提供有用的评论。嗯,这就是我们要发布的说明的内容,最近在arXiv上发布的一项实验取得了非常积极的结果。
頁:
[1]