施普林格自然持续关注人工智能领域的发展,并将在适当的时候审核并更新相关政策措施。
目前,像ChatGPT这样的大型语言模型(LLM)并不符合我们的作者身份标准。因为论文作者不仅需要署名,还需要对论文内容承担责任,而这一点是大型语言模型无法做到的。如果确实使用了大型语言模型,应在方法部分(如果没有专门的方法部分,则应在合适的地方)进行明确说明。
生成式AI图像创作领域正迅速发展,随之而来的是新的法律版权和科研诚信问题。作为出版方,我们严格遵守现行版权法规和最佳出版伦理实践。当前,施普林格自然旗下的期刊暂不允许使用生成式AI生成的图像。
不过,在某些特定情况下,如图像或艺术作品来自与我们有合同关系的代理机构且合法生成,或者在专门讨论AI的文章中引用图像和视频,这些情况将依据具体情况逐案审查。
鉴于这一领域未来可能会快速发展,我们将定期审查并调整相关政策。
同行评审在科学出版中扮演着关键角色,它通过专业评估和建议,确保已发表的研究具备有效性、严谨性和可信度。编辑选择审稿人主要基于其对特定研究主题或方法的深刻理解。这种专业知识是无可替代的。
尽管AI工具在不断发展,但生成式AI仍存在较大局限性:它们可能缺乏最新的知识,并可能生成无意义、偏见或错误的信息。此外,稿件中可能包含敏感或专有信息,不宜在同行评审过程中外泄。因此,施普林格自然正在探索为审稿人提供安全的AI工具,但我们请求审稿人不要将稿件上传至生成式AI工具中。
如果审稿过程中使用了AI工具,我们要求审稿人在评审报告中明确声明。
请注意,不是所有的AI工具都是生成式的。使用非生成式机器学习工具来处理、组合或增强现有图像或图表,应在投稿时的相关图片说明中予以披露,以便逐案审查。
希望以上内容能帮助您更好地了解施普林格自然在AI领域的立场和措施。