AI and Ethics | 研究中生成式人工智能负责任使用的核心原则
作者:微信文章标题:Core principles of responsible generative AI usage in research
链接:https://doi.org/10.1007/s43681-025-00768-8
摘要
生成式人工智能(Generative Artificial Intelligence, GenAI)快速演进的背景下,研究人员、政策制定者和出版机构必须不断重新界定负责任的研究实践。为确保对研究中GenAI使用的有效引导,亟需确立一些即便在技术持续进步下仍能保持稳定的核心原则。本文定义了一套指导原则,用于规范研究中GenAI的负责任使用,无论具体应用场景或所采用的GenAI技术为何。为构建该框架,我们开展了一项匿名德尔菲(Delphi)共识程序,专家组由16位来自人工智能、社会科学、法学、伦理学和学术出版领域的国际多学科专家组成。经过三轮独立评分与反馈,专家组就八项按顺序排列的原则达成共识,这些原则是负责任使用GenAI所必需的:法规遵从、数据安全、质量控制、原创性、偏见缓解、问责性、透明性与广泛影响。为便于清晰报告对这些原则的遵循情况,我们还开发了一份清单,以支持在研究过程中主动落实这些原则。通过上述工作,我们旨在指导日常科研实践,支持更具体法规、政策与指南的制定,并促进关于研究中GenAI使用的学术讨论。
引言
生成式人工智能(Generative Artificial Intelligence, GenAI)指能够根据输入提示生成新颖内容(例如文本、图像、代码或数据)的人工智能系统。依托大语言模型与生成算法,GenAI工具正日益深刻地影响着科研工作的开展方式。尽管GenAI可显著加速某些任务,但其使用也对研究诚信与数据安全构成严重风险,并可能导致对不良后果的责任分散。
当前,政策制定者、科学家、出版机构及研究组织正持续努力,通过制定规范以促进人工智能在科研中的负责任使用。这些努力涵盖不同层面:从宽泛的伦理框架、区域性研发指南、学术共识框架、出版伦理标准,到出版机构与期刊政策,乃至学科或工具特定的检查清单。其中一些方法适用于所有形式的人工智能使用,另一些则专门针对GenAI;此外,还可进一步区分这些规范是描述性的还是规定性的。
尽管上述监管努力对引导科研实践至关重要,但GenAI的持续演进对其有效性与可持续性构成了重大挑战。由此产生的突发且不可预见的技术进展,可能使研究人员陷入困惑,难以判断在使用GenAI时何为恰当且负责任的科研行为。因此,亟需为研究中GenAI的使用建立一个广泛而持久的基础,以在人工智能技术不断演进的同时,为监管工作提供稳定指引。
有鉴于此,本文提出一个包含若干总体性原则的框架,用以指导研究中GenAI的负责任使用,无论其具体用途或所采用的模型为何。我们还提供了必要的准备步骤,并制定了一份全面的清单,以促进对这些原则的切实遵循。
尽管本框架源于对GenAI的描述性学术共识(其中部分内容,如内容原创性与“幻觉”问题,具有GenAI特异性),但许多原则同样适用于其他人工智能工具的负责任使用。为识别这些原则,我们开展了一项德尔菲(Delphi)共识程序,专家组由16位来自人工智能、社会科学、法学、伦理学和学术出版领域的国际多学科专家组成。该程序已在OSF平台预注册( https://doi.org/10.17605/OSF.IO/R4W9B ),所有方法学细节见本文补充材料( https://osf.io/uvtx5 )。
专家组最终就八项原则达成共识(图1)。所有原则按顺序组织,从最一般性的要求开始(应优先处理),后续步骤仅在前序原则已满足的前提下才相关。本框架区别于高层次伦理准则之处在于,它将广泛的科学与社会价值观转化为针对科研使用的具体行动建议,并通过专家委员会定义的总体原则,补充了更为狭窄的出版规范与学科特定指南。
1 法规遵从
研究人员必须遵守适用于其GenAI使用的机构、国家、国际层面以及出版方制定的法规、政策与指南。开展伦理风险评估并符合伦理审查委员会的期望,有助于进一步降低伦理风险。在国际或多机构合作项目中,可能适用不同的AI法规与伦理指南。确保团队成员在整个研究过程中遵守与其相关的规则至关重要。
2 数据安全
研究人员应尽合理努力确保私人与敏感数据的安全。将可识别信息输入GenAI系统存在第三方未经授权访问的风险,可能无意中损害研究完整性。为防止泄露私人或敏感数据,研究人员可采取多种策略,例如对可识别信息进行匿名化或假名化处理。此外,建议选择隐私政策更为健全的AI服务提供商,并咨询(外部或机构内部的)数据保护团队。
3 质量控制
与人类贡献一样,GenAI的输出也应符合质量标准,以确保良好的科研实践。不能盲目信任GenAI的输出,必须由人类对其准确性与精确性(例如:是否正确?)、逻辑推理(例如:是否一致且连贯?)、相关性(例如:是否切题、全面且最新?)以及特定情境下的标准(如专业质量的证据要求)进行核查。研究人员应预先规定验证程序,并至少由一名人类贡献者根据既定标准评估GenAI的输出。这些标准与验证程序应在相关成果中予以记录并透明报告。
4 原创性
使用GenAI时,研究人员应确保所有研究组成部分(包括正文与补充材料中的文本、图表、数据及元数据)均无抄袭行为,并准确引用原始来源。例如,GenAI系统有时无法提供准确的参考文献,存在误述既有研究的风险。因此,人类作者必须核查GenAI输出的原创性,并确保对所用来源给予恰当致谢。避免在出版物中直接使用GenAI输出,是防止原创性问题的关键做法。
5 偏见缓解
研究人员应尽合理努力,避免在使用GenAI时延续、放大或引入不良偏见(例如已存在的性别或种族偏见)。对GenAI的盲目依赖可能强化社会或学术领域的权力结构、刻板印象或有偏见的共识。研究人员可采用多种策略评估或缓解AI偏见,例如参考对所用模型的既往评估,或在GenAI输出的实施或传播过程中遵循检查清单。一种通用的偏见缓解策略是:利用现有AI模型中的偏见基准、领域专家意见以及多元视角对研究进行审查。
6 问责性
对自身科研工作的问责性是良好科学的核心标志之一,也是社会信任研究成果的基础。在所有发表内容中,仅人类对所呈现工作的优缺点承担责任。与人类不同,AI系统不进行有意识的决策;它们不是可追责的主体,因此无法因其错误而被问责或制裁。使用GenAI系统的研究人员应确保仅在自身具备足够专业知识与信息以评估模型输出的情境下使用这些模型。
7 透明性
在将GenAI用于研究目的时,必须清晰记录并说明GenAI的贡献及其由人类进行的验证过程。公开披露并报告GenAI工具的使用有助于强化问责、增进信任,并促进验证与可重复性。GenAI工具持续更新,但更新内容未必反映在模型版本号中,因此记录使用日期是良好实践。此外,输出结果可能对提示词(prompts)敏感,因此记录提示内容对复现研究具有参考价值。由于输出具有随机性且涉及迭代过程,完整记录GenAI使用情况可能较为繁琐,某些使用场景(如文字润色)或许无需详细报告。为确保一致性,可能需要制定领域或主题特定的指南。
8 广泛影响
科学家必须意识到使用AI可能带来的社会与环境影响。由于AI的训练与开发消耗大量能源,会产生显著碳排放。研究人员在使用AI时应有意识地考虑其能耗问题,质疑所部署模型的能效,并在可获得同等效果的前提下优先选择更高效的选项。此外,随着GenAI可能逐步取代越来越多的科研工作(如数据分析、编程),研究人员应关注其对自身科研技能发展的影响。同时,采用GenAI可能排挤或限制同事的参与机会,进一步加剧社会不平等。
实施清单
为确保上述八项原则的实践可行性,我们为拟在研究中使用GenAI的研究人员提供了具体的准备步骤与核查问题。清单中的每一项均对应上述八项原则之一,将其转化为研究人员的具体决策点(见表1)。该方案包括:(i) 需满足的基本价值(原则)的完整描述;(ii) 满足该原则可采取的简要步骤(准备);(iii) 清单问题——回答“是”即视为满足,若回答“否”则需提供充分解释。
该清单可通过专用Shiny应用程序填写( https://github.com/marton-balazs-kovacs/CorePrincipleGenAIChecklist ),该应用已在Zenodo归档( Kovacs et al., 2025 )。建议在预注册、预印本或正式文章中提供生成报告的链接。本清单旨在补充并支持用户对负责任GenAI使用的批判性态度,而非替代之。
补充材料中包含若干AI使用指导模型及其比较。
结论
认识这八项原则有助于在宏观与具体层面上实现GenAI的负责任使用。它们是在不断变化的AI环境中提供稳定指引的初步尝试,并可为未来针对科研中AI发展的各类指南制定提供依据。
		页: 
[1]