作者:Kathryn Palmer
学术出版界尚未就如何在其流程中使用生成式人工智能制定统一指南。
摩尔工作室/盖蒂图片社
Open AI 发布 ChatGPT 仅仅两年后,出版商和内容聚合商正在开发一系列人工智能增强的搜索和发现工具。他们还在试验生成式人工智能如何帮助紧张的研究生态系统完成后端任务,例如编辑、同行评审和记录实验过程。
这些迹象都表明学术出版业已准备好“在研究和出版生命周期中的使用呈指数级增长”。据报道教育研究公司 Ithaka S+R 于上月底发表。
如下:一份报告该组织于 1 月份发布报告,呼吁建立共享基础设施来处理数字技术为学术交流带来的风险和机遇,尽管该报告是基于 2023 年初的采访,当时 ChatGPT 上市仅几个月。
但尽管这项技术正在加速影响学术研究的产生和出版,但研究人员本身在广泛采用生成式人工智能方面进展缓慢,正如各种报告(包括一些来自高等教育内部——已经表明。
为了帮助理解这种差异,Ithaka S+R启动了最新的项目刚刚过去的这个夏天。
– 生成式人工智能为学术出版的方程式注入了许多变量。两份报告的合著者、Ithaka S+R 研究企业部门的高级项目经理迪伦·鲁迪格 (Dylan Ruediger) 表示,目前还没有一个共同的框架来理解这些影响。“因此,也没有一个共享框架来理解管理生成式人工智能的影响将涉及哪些内容。”
研究人员已经开始担心,用于训练一些大型语言模型 (LLM) 的可免费获取的信息(其中一些尚未经过严格的同行评审)可能会破坏学术研究的完整性。
Ithaka S+R 的新报告基于对学术出版界的十几位代表(包括图书馆员、学术协会成员、资助者和出版商)的采访,揭示了关于人工智能可能意味着什么的共识领域和分歧领域未来的学术研究实践。
“与我们交谈的人一致认为,生成式人工智能将提高整个出版过程的效率。”鲁迪格和他的合著者、伊萨卡馆藏和基础设施项目经理特雷西·伯格斯特罗姆 (Tracy Bergstrom) 在一篇博文关于报告。– 写作、审阅、编辑和发现都将变得更加容易和快捷。由于人工智能增强的研究方法,学术出版和科学发现反过来可能会加速。”
然而,受访者对于这些效率提升将如何塑造学术出版的未来存在分歧。报告称,一些人认为,它们可能有助于出版业更顺利地运作,但不会“从根本上改变其动力或目的”。但其他受访者描绘了一个“更加模糊的场景”,即生成式人工智能改变了学术研究,以至于它使过去 30 年创造的数字工具“相形见绌”。
最热门的讨论话题之一是使用人工智能协助同行评审的好处和坏处,学者们长期以来一直抱怨他们很少为此获得报酬。
“将自动化纳入同行评审会产生复杂的道德影响,”鲁迪格说。– 但人们也真正认识到,这是目前出版过程中的一大瓶颈。 – 生成式人工智能可以通过将审稿人与作者进行匹配以及处理引文的基本编辑和格式来帮助缓解这一阻碍,他说,这将“让人类审阅者更加关注内容”。
但学术界尚未像其他行业那样,积极推动围绕生成人工智能开展清晰的沟通。
69% 到 96% 的生物医学研究人员不会将生成式人工智能用于任何特定的研究目的,根据另一项 Ithaka S+R 研究十月出版。此外,高等教育内部– 最近的调查的学院和大学首席技术官发现,只有 9% 的人认为高等教育已准备好应对新技术的崛起。
大约一半的受访者高等教育内部调查还表示,他们的机构强调在个体案例中使用人工智能,而不是在企业规模上考虑人工智能。
鲁迪格说,这可能部分是因为“让大学内分散的、相当自治的教师和其他人员以相对一致的方式行事确实很困难”。– 生成式人工智能是企业级的挑战。为了使其成为高等教育的生产力技术,我们必须将其视为机构层面及其他层面的系统问题。”
然而,出版商已经“以相当系统的方式思考这个问题”,他说,这反过来又创造了“一个真正的空间和与其他利益相关者沟通的需求。”
虽然 Taylor & Francis 和 Wiley 等出版商已经卖出了数百万美元— 尽管有大量学术研究数据来培训微软和其他专有的法学硕士,但大多数学术研究人员仍然专注于在一个警告他们“要么发表,要么灭亡”的环境中获得晋升和终身职位。
然而,美国学会科学外展主任 Chhavi Chauhan 表示,如果那些急于发表论文的研究人员使用接受过免费但错误信息培训的法学硕士,则有可能“降低未来研究的质量”研究病理学和项目经理人工智能领域的女性加速和提升项目。
她说,反复反省不良数据还会带来“损害想法新颖性”的风险。– 人类正在以创造性的方式思考事物,但大型语言模型只能看到已经存在的东西。他们没有创造力。”
她说,虽然主要出版商和联邦政府已经制定了关于生成人工智能的使用指南,但为了最有效,这些计划还需要学术机构的支持。
Chauhan 表示,在一个“没有明确基准”的行业中,“合作才是前进之道。”
尽管利益相关者和平台的多样性可能会使制定“一揽子政策”变得困难,但乔汉表示,维护公众对学术研究的信任至少需要“一份每个人都应该遵守的最低清单”通过。 –
她补充说,无论看起来是什么样,该指南的目标应该是“减轻意想不到的后果”,并重点关注“人工智能可以为人类做什么”。