《中国科学技术信息研究所:2024学术出版中AIGC使用边界指南2.0(11页).pdf》由会员分享,可在线阅读,更多相关《中国科学技术信息研究所:2024学术出版中AIGC使用边界指南2.0(11页).pdf(11页珍藏版)》请在三个皮匠报告上搜索。
1、使用边界指南2.0Guideline on the Boundaries ofAIGC Usage in Academic Publishing 2.0学术出版中中国科学技术信息研究所爱思唯尔、施普林格自然、约翰威立国际出版集团泰勒-弗朗西斯出版集团、威科集团、剑桥大学出版社(排名不分先后)中国科学技术信息研究所科学计量与评价研究中心北京市海淀区复兴路15号邮编:100038电话:+86-10 58882604联系人:郑雯雯邮箱:目录1 背景.012 目标.022.1 防范学术不端,加强科研诚信治理.022.2 引导相关利益主体就AIGC使用达成共识.023 原则.023.1 透明度和问责制.
2、023.2 隐私和安全.023.3 公平.023.4 可持续发展.034 行为框架/实践指导.034.1 研究开展和论文撰写阶段.034.1.1 资料收集.034.1.2 统计分析.044.1.3 图表制作.044.1.4 文字撰写.044.1.5 语言和润色.054.1.6 引文整理.054.2 投稿阶段.054.2.1 作者署名.054.2.2 规范引用.054.2.3 披露和声明.064.2.4 同行评审.064.3 论文发表/出版后5.1 案例1:作者将道德和诚信问题归咎于ChatGPT5.2 案例2:某医疗团队论文撤稿事件.064.3.1 数据仓储和共享.064.3.2 AIGC相关
3、材料提交、存档.064.3.3 AIGC产生内容的检测和发现.065 案例分析.076 总结.07.07.077 致谢.08近年来,随着人工智能技术的迅速发展,特别是2022年11月人工智能聊天机器人ChatGPT的发布,人工智能内容生成(Artificial Intelligence Generated Content,简称AIGC)已经走进公众视野,并被广泛利用。人们清楚地认识到人工智能(AI)正在获得产生流利语言的能力,产生的大量语句越来越难与人写的文本区分开来。一些科学家已经在使用聊天机器人作为研究助手,帮助其组织思维,对他们的工作产生反馈,协助其编写代码并总结研究文献。AI在研究论文
4、写作、创作等方面的影响不断增强,但是对学术研究的透明性、完整性产生重要影响,引起学术界的广泛关注。学术界最担忧的是科学家、研究人员、学生等可能会欺骗性地将AIGC生成的文本作为自己的文本,或者简单使用AIGC并产生不可靠的研究成果。LLMs(Large Language Models)通过学习大量在线文本数据库中的语言统计模式来工作,很容易产生错误和误导性信息,且可能无法显示其信息的来源。如果没有输出控制,AIGC很容易被用来产生不当言论或不可靠的研究结果,影响科研生态环境。同时,根据现有检测方法,使用AIGC还可能增加学术不端检测的难度(例如背景1学术出版中AIGC使用边界指南2.0背景01
5、抄袭和图像操纵检测)。因此,如何使用AIGC,设定界限并提供可参考的指南至关重要。目前,一些国家科技管理机构、出版领域、期刊等针对AI技术在学术论文中的使用进行了研讨,并提供了一些相关的准则、指南等,例如国际出版伦理道德委员会(COPE),国际医学期刊编辑委员会(ICMJE),国际科学、技术和医学出版商协会(STM),Taylor&Francis,Wiley,Springer Nature,Elsevier,Wolters Kluwer等。值得注意的是,不同机构在不同时期发布的AI相关指南和规范性文件,有着不同的表述和要求,例如用于临床试验的CONSORT-AI;用于临床试验方案的 SPIRI
6、T-AI;用于预测模型的TRIPOD+AI等。为此,在广泛调研和梳理现有业内相关研究和探索工作的基础上,我们致力于为AI技术在学术出版中的最佳行为实践提供一个基本原则的框架和指南,希望能够引导出版界、科学界和科技管理部门就AI技术使用规范进一步形成共识。因为AI是一项新兴技术,技术的性质及如何使用将不可避免地发生变化,我们将根据情况变化,持续、及时更新这份指南。目录1 背景.012 目标.022.1 防范学术不端,加强科研诚信治理.022.2 引导相关利益主体就AIGC使用达成共识.023 原则.023.1 透明度和问责制.023.2 隐私和安全.023.3 公平.023.4 可持续发展.03