英国《自然》杂志网站 近日报道指出 ChatGPT等大型语言模型 正在重塑科学写作和出版的面貌
报道认为 这些工具在提高生产力的同时 可能也会带来负面影响 出版商和科学家必须考虑 如何更符合伦理道德地 使用这些工具 以及过度依赖这些工具 将对学术研究前景 产生何种影响
图源:《自然》网站
在竞争激烈的学术界 ChatGPT等大语言模型 凭借其快速创建 文本、图像等内容的超能力 迅速成为科学家们的“左膀右臂”
2023年 《自然》杂志对1600多名科学家 进行了一项调查显示 近30%的受访者表示 他们曾使用生成式AI工具辅助撰写论文 约55%的受访者认为 生成式AI的一个主要好处是 它能为母语非英语的研究人员 编辑和翻译论文 图源:Pexels
继2019年出版世界上第一本 由机器生成的科研图书之后 学术出版机构施普林格·自然集团 (Springer Nature,下称“自然集团”) 去年又授权作者使用生成式人工智能 预训练模型GPT 并将其作为集成工作流程的一部分 出版一本学术图书 该书从启动到完成出版 花费不到5个月的时间 大约是正常出版时间的一半
ChatGPT等生成式AI工具 在提高生产力的同时 也带来了一系列问题
比如 它们可能会产生 一些荒谬或不真实的内容 而且随着这些工具 在学术论文领域的广泛应用 期刊的投稿量也大幅增加 导致编辑和同行评审人员不堪重负 从中筛选出有价值的论文 将更具挑战性 图源:Pexels
此前,知名出版集团 爱思唯尔(Elsevier)旗下期刊 发表的几篇论文被发现 开篇就暴露了“ChatGPT风格” 插图也是用Midjourney画的 因为它的开头是: “当然可以,这里是 您的主题可能需要的介绍”
议论的声音越来越大 现在已经逼得爱思唯尔官方下场 称目前正在调查被质疑的论文
纽约大学名誉教授 加里·马库斯(Gary Marcus)认为 AI的泛滥对于期刊出版商来说 是一个重大的预警 因为他们最重要的 就是声誉
面对生成式AI的“入侵” 学术出版商们也开始采取行动
比如,自然集团就明确要求 使用大语言模型工具的研究人员 必须在方法或致谢部分 列出这种使用
但正如美国《科学》杂志主编 霍顿·索普(Holden Thorp)所说 目前 还没有一个令人信服的检测工具 来筛选期刊投稿 图源:Pexels
人工智能倒逼出版界“立规矩” 行业应该如何做? “出版界 应该积极拥抱人工智能技术 并将其运用到 出版流程的各个环节中 从而提高效率、降低成本、提升品质 更好地满足读者的需求 同时 出版界也需要重视 人工智能带来的一些挑战和问题 如隐私保护、算法偏见等 制定相应的规范和政策 来规范人工智能在出版领域的应用。” ChatGPT给出这样的回复
撰文:刘昊 编辑:李飞 排版:李汶键 统筹:李政葳 参考丨科技日报、中国新闻网、澎湃新闻、ChatGPT
更多信息欢迎关注光明网数字化频道
[
责编:李飞 ] |