手在笔记本电脑键盘上打字,屏幕上显示人工智能聊天机器人ChatGPT

人工智能聊天机器人ChatGPT正在颠覆包括学术界在内的许多行业。图片来源:Iryna Imago/Shutterstock

风靡全球的人工智能(AI)聊天机器人ChatGPT在科学文献中正式亮相,在已发表的论文和预印本上至少获得了四份作者署名。

期刊编辑、研究人员和出版商现在正在讨论这类人工智能工具在已发表文献中的地位,以及将机器人作为作者引用是否合适。去年11月,加州旧金山的科技公司OpenAI作为一款免费工具发布了这款聊天机器人,出版商们正在竞相为它制定政策。

ChatGPT是一个大型语言模型(LLM),它通过模仿从互联网上整理的巨大文本数据库中的语言统计模式来生成令人信服的句子。机器人已经在颠覆包括学术界在内的多个领域:特别是,它对大学论文和研究成果的未来提出了质疑。

出版商和预印本服务器联系自然的新闻团队也认为,ChatGPT等人工智能不符合研究作者的标准,因为它们无法对科学论文的内容和完整性负责。但一些出版商表示,人工智能对论文写作的贡献可以在作者列表以外的部分得到承认。(自然《卫报》的新闻团队在编辑上独立于其期刊团队及其出版商施普林格Nature。)

有一次,一位编辑告诉记者自然ChatGPT被错误地引用为合著者,该期刊将予以纠正。

人工作者

ChatGPT是预印本的12位作者之一1关于在医学教育中使用该工具,去年12月发布在医学存储库medRxiv上。

纽约冷泉港实验室出版社(Cold Spring Harbor Laboratory press)副主任、联合创始人理查德·塞弗(Richard Sever)表示,该信息库及其姐妹网站bioRxiv背后的团队正在讨论在撰写研究报告时使用和信任ChatGPT等人工智能工具是否合适。惯例可能会改变,他补充道。

Sever说:“我们需要区分学术手稿作者的正式角色和更一般的作者作为文件作者的概念。”作者对他们的作品承担法律责任,所以只有人应该被列出,他说。“当然,人们可能会试图偷偷摸摸地把它写进来——这已经在medRxiv上发生过了——就像过去人们在期刊文章中把宠物、虚构的人物等列为作者一样,但这是一个检查问题,而不是政策问题。(这篇预印本的通讯作者、加州山景城Ansible Health的医疗总监维克多·曾森(Victor Tseng)没有回应置评请求。)

一篇社论2在杂志中护士实践教育本月,人工智能与英国曼彻斯特大学的健康技术研究员西沃恩·奥康纳(Siobhan O 'Connor)共同参与了这项研究。该杂志的主编罗杰·沃森说,这一荣誉是错误的,很快就会得到纠正。“这是我的疏忽,”他说,因为社论与研究论文的管理系统不同。

香港一家人工智能药物研发公司Insilico Medicine的首席执行官亚历克斯·扎沃龙科夫(Alex Zhavoronkov)称赞ChatGPT是一篇观点文章的合著者3.在杂志中Oncoscience上个月。他表示,他的公司已经发表了80多篇由生成式人工智能工具生成的论文。“我们对这个领域并不陌生,”他说。这篇最新的论文讨论了服用雷帕霉素的利与弊,这是在一个叫做帕斯卡打赌的哲学争论的背景下进行的。Zhavoronkov说,ChatGPT写的文章比前几代生成式人工智能工具要好得多。

他说Oncoscience他要求编辑对这篇论文进行审稿。该杂志没有回应自然的置评请求。

第四条4瑞典哥德堡Sahlgrenska大学医院的神经生物学家Almira Osmanovic Thunström说,由早期的聊天机器人gbt -3共同撰写,并于2022年6月发布在法国预印本服务器HAL上,很快将在同行评审期刊上发表。她说,一家期刊在审查后拒绝了这篇论文,但另一家期刊在她应审稿人要求重写了这篇文章后,以GPT-3作为作者接受了这篇论文。

出版商的政策

的主编自然而且科学告诉自然ChatGPT不符合作者的标准。《财富》主编马格达莱纳•斯基珀(Magdalena Skipper)表示:“作者身份意味着对作品负责,这不能有效地适用于LLMs。自然在伦敦。她说,如果合适的话,作者在撰写论文时以任何方式使用llm都应该在方法或致谢部分记录它们的使用。

“我们不会允许人工智能在我们发表的论文中被列为作者,而使用人工智能生成的文本而没有适当的引用可能会被视为抄袭,”华盛顿特区《科学》(Science)期刊家族主编霍尔顿·索普(Holden Thorp)说。

伦敦的Taylor & Francis出版社出版伦理和诚信主管Sabina Alam说,他们正在重新审视自己的政策。她同意作者对其工作的有效性和完整性负责,并且应该在致谢部分引用llm的任何使用。Taylor & Francis目前还没有收到任何将ChatGPT列为合著者的意见书。

物理科学预印本服务器arXiv的董事会已经进行了内部讨论,并开始在使用生成式人工智能的方法上达成一致,位于大学公园的宾夕法尼亚州立大学的天文学家、科学总监斯坦恩·西于尔兹松(Steinn Sigurdsson)说。他同意软件工具不能成为提交内容的作者,部分原因是它不能同意使用条款和分发内容的权利。Sigurdsson并不知道arXiv有任何将ChatGPT列为合著者的预印本,并表示对作者的指导即将出台。

生成式AI的伦理

伦敦英国研究诚信办公室(UK Research Integrity Office)的研究诚信经理马特·霍奇金森(Matt Hodgkinson)以个人身份说,已经有了明确的作者准则,这意味着ChatGPT不应该被视为合著者。他说,一个指导原则是合著者需要对文章做出“重大的学术贡献”——这可以通过ChatGPT等工具实现。但它也必须有能力同意成为共同作者,并对一项研究承担责任——或者,至少是它贡献的部分。他说:“让人工智能工具成为合著者的想法在第二部分真正遇到了障碍。”

Zhavoronkov说,当他试图让ChatGPT写比他发表的观点更技术性的论文时,它失败了。他说:“它确实经常会返回不一定正确的语句,如果你多次问它同一个问题,它会给你不同的答案。”“所以我肯定会担心这个系统在学术界被滥用,因为现在,没有专业知识的人也可以尝试写科学论文。”