近日,第六届世界科技期刊论坛“人工智能在出版中的应用”专题分论坛在西安举办。施普林格·自然内容创新副总裁施恒宁(Henning Schoenenberger)围绕“基于AI的编辑出版服务”作专题报告。会后,施恒宁在接受新华网采访时,结合施普林格·自然的应用案例进一步介绍了人工智能应用实践等话题。
新华网:您此前构思并出版了施普林格·自然第一本计算机生成的研究书籍,您觉得现阶段人工智能的编辑水平处于哪个阶段?写作水准如何?
施恒宁:人工智能生成书籍还是一个正处于探索阶段的领域,有技术和非技术方面的限制。虽然经由人工智能技术生成的语言相比人类的语言显得生硬,但我们决定透明地展示技术的实操效果和局限性,而不是掩盖人工智能的参与。
虽然人工智能如ChatGPT和其他语言模型已经取得了巨大的进步,但我们仍然要确保作者在使用时进行标识,明确他们指出自己在写作过程中使用了人工智能相关技术。
新华网:您是如何与人工智能协同工作的? AI是否能够完全取代编辑?
施恒宁:在特定的应用场景和任务中,人工智能可以为编辑工作提供有力支持,并有效地补充其工作。例如,在编辑过程中,通过机器和算法的支持,可以扩大审稿人的选取范围。然而,虽然可以在期刊推荐等领域将人工智能视为一种对编辑工作高度智能的补充,但它并不可以完全取代编辑的任务,这涉及到几个原因:首先,当前的技术水平还无法完全达到理想的质量标准;其次,我们希望保持人类在决策中心的地位。做决策涉及责任,因此,必须由人类负责并承担责任,而不能被计算机所取代。
新华网:您如何看待AI与知识服务?我们应如何更好地在人工智能广阔前景下保障科研人员权益?
施恒宁:对于人工智能与知识服务,一方面,我们保持着开放的态度。另一方面,我们要求作者和研究人员明确说明他们借助人工智能所做的工作,以保持透明度和问责制。今年年初,施普林格·自然发布了政策宣布,允许研究人员以作者的身份使用语言模型。然而,在此背景下,我们也设置了两个重要的限制:首先,如果研究人员使用了语言模型,他们必须在论文的方法部分或致谢部分进行明确说明。并且他们必须对论文和研究负责,不能声称论文是由计算机或语言模型编写的,从而推卸最终责任;其次,人工智能、大型语言模型或语言模型工具不能被视为作者。我们认识到,人工智能带来了很多机遇的同时也存在风险和限制。我们已经做出了努力来确保人工智能的安全性和道德性并试图找到最佳方法来应用人工智能,以确保研究的完整性。
新华网:您对人工智能未来在科技期刊的应用上有哪些思考或建议吗?
施恒宁:我们很早就着眼于运用人工智能技术,并在所有流程和服务中都进行了实际应用,如错误检测、抄袭检测、期刊推荐、同行评审鉴定、语言编辑等。人工智能在提高语言质量方面也发挥了重要作用。作为一个非英语母语者,我理解撰写英语科学文章的难度,因此我对这项技术真正帮助非英语母语者写作并使其达到国际水平的能力表示赞赏。人工智能技术是一项杰出的工具,我们应该充分利用它们的优势为STM期刊提供服务。
(责任编辑 张艳芳)