
前言
随着人工智能、生命科学等前沿技术的快速迭代,科技伦理治理已成为国家治理体系的重要组成部分,是推动科技向善、确保技术发展与社会价值同向同行的关键保障。
科技伦理是科技活动必须遵循的价值准则和行为规范。目前,我国已逐步构建科技伦理制度体系,并形成了从通用基础到领域细化、再到场景指引的基本治理框架,为科技活动伦理规范提供了全维度支撑。
2023年2月18日,《涉及人的生命科学和医学研究伦理审查办法》正式发布,聚焦人体研究场景,强化受试者保护、知情同意与弱势群体保障,实现生命医学领域伦理审查的专项细化落地。2023年10月8日,《科技伦理审查办法(试行)》出台,搭建起全国统一的伦理审查制度框架,覆盖所有存在伦理风险的科技活动,明确审查主体、流程、监管与高风险项目管理要求,成为各领域开展伦理审查的核心遵循。2026年3月20日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,立足人工智能技术特性,细化算法公平、可控可信、隐私安全等审查要点并配套伦理服务体系,推动通用伦理规则与人工智能领域实际深度适配。
针对各类细分技术场景,国家还针对脑机接口、人类基因组编辑、驾驶自动化、虚拟现实等领域出台了等一系列伦理指引,例如《人类基因组编辑研究伦理指引》、《虚拟现实技术研发伦理指引》、《驾驶自动化技术研发伦理指引》等。这类文件虽不具备强制约束力,却能为伦理审查提供专业实操参考,明确细分技术的伦理红线与风险防控方向,与刚性规制形成互补,让科技伦理治理更具针对性和可操作性。
本文将重点解析《人工智能科技伦理审查与服务办法(试行)》(下称《办法》),并结合相关文件,帮助相关企业、单位理解我国现行的科技伦理审查总体思路与操作规范。
一、《办法》的规定与实务解读
本次引发的《办法》依据《中华人民共和国科学技术进步法》《关于加强科技伦理治理的意见》以及《科技伦理审查办法(试行)》制定,是我国针对人工智能领域出台的专项伦理审查规范,也是对通用科技伦理审查制度在人工智能场景下的细化与落地。该办法立足人工智能技术研发与应用的伦理风险特征,系统明确了人工智能科技伦理审查的适用范围、核心原则、实施主体、工作程序与监督管理要求,同时配套伦理服务与促进举措。
1. 相关主体
《办法》主要适用于我国境内开展的人工智能科技活动[1],活动相关主体均需要参照《办法》规定接受审查主体的审查。针对《办法》中涉及的不同主体的不同权利义务,我们如下表进行了总结。

2. 审查流程

3. 审查重点
人工智能科技伦理审查以防控伦理风险、规范人工智能科技活动为核心,重点围绕六大关键维度开展全面核查[2]:
1)确认人工智能科技活动具备科学与社会价值、风险受益配比合理;
2)保障数据与算法设计公平公正、防范偏见歧视与算法压榨;
3)确保模型及系统可控可信、具备应对复杂场景与突发状况的处置能力;
4)做到算法运行与模型逻辑透明可解释;
5)实现数据、算法、模型、系统各个环节全链条责任可追溯;
6)在数据收集、存储、使用等全生命周期处理活动以及研究开发数据新技术等环节落实隐私安全保护。
4. 监督管理和法律责任
1) 监督管理职责与分工
本《办法》明确了分层分级的监管权责体系:科技部负责统筹指导全国科技伦理监管工作;工业和信息化部会同有关部门负责人工智能科技伦理治理,统筹协调应急伦理审查工作;各行业主管部门依职责负责本行业、本系统的人工智能科技伦理审查监督管理(如卫健委、网信办等);各地方主管部门负责本地区人工智能科技伦理审查与日常监管。伦理审查责任主体开展伦理审查、履职行权的全过程,均接受对应层级主管部门的监督。
2) 登记备案与报告义务
为实现伦理审查可追溯、可监管,本《办法》设定强制登记与报告义务。开展人工智能科技活动的单位、伦理审查服务中心,均需通过国家科技伦理管理信息登记平台(https://service.most.gov.cn/)进行登记;涉及复核清单[3]内高风险人工智能科技活动的,需专项登记;科技部与各行业、地方主管部门对登记信息共享共用。同时,相关单位与服务中心须按期提交上一年度伦理委员会工作报告、高风险活动实施情况报告。
3) 法律责任
监管部门重点追责以下违规行为:未按规定设立伦理委员会或未保障委员会独立履职;对应审查的人工智能科技活动应审未审、未经审查或复核擅自开展;以弄虚作假、伪造材料等不正当手段骗取审查批准;超出审批范围开展活动或拒不执行监管部门、伦理委员会作出的暂停、终止活动决定;未按规定在国家平台登记信息、提交年度报告;伦理审查服务中心违规对同一项目同时提供审查与复核服务;未履行伦理风险监测、跟踪审查及风险报告义务。
针对上述违规行为,开展人工智能科技活动的单位、伦理委员会、伦理审查服务中心及相关工作人员等责任主体,需依法承担相应法律责任。行政责任层面,由监管部门调查核实后责令整改、暂停或终止相关人工智能活动,并可依据《网络安全法》《数据安全法》《个人信息保护法》《科学技术进步法》等上位法处以罚款、责令停产停业、吊销资质等处罚;民事责任层面,违规行为造成财产损失或其他合法权益损害的,需依法承担赔偿责任;刑事责任层面,违规行为构成犯罪的,依法追究刑事责任。同时,违规信息将被纳入科技伦理监管记录,对责任主体的登记、备案、行政审批及信用评价等事项形成约束,全方位压实伦理审查合规责任。
二 、各领域科技伦理审查办法对比分析
为清晰呈现我国科技伦理审查制度的体系化架构,现将《科技伦理审查办法(试行)》及《人工智能科技伦理审查与服务办法(试行)》、《涉及人的生命科学和医学研究伦理审查办法》进行横向对比。其中,《科技伦理审查办法(试行)》作为全领域通用的基础性制度,构成科技伦理审查的总体遵循;而《人工智能科技伦理审查与服务办法(试行)》、《涉及人的生命科学和医学研究伦理审查办法》则分别立足人工智能技术与医学研究的行业特点,对上位制度进行针对性细化与落地。三者在适用范围、审查重点、监管机制等方面既保持衔接统一,又体现领域差异,通过对比可直观理解我国科技伦理治理 “通用打底、领域细分、精准适配” 的制度逻辑。

三、各领域科技伦理指引对比分析
为进一步细化前沿科技领域的伦理规范,针对基因编辑、类器官、神经技术、嵌合体、脑机接口、虚拟现实、自动驾驶等新兴交叉领域,我国制定发布了一系列专项科技伦理指引。此类指引虽不具备强制性法律效力,但立足各领域技术特征与伦理风险要点,明确了研究与应用的伦理边界、核心原则与操作建议,可为相关机构开展伦理审查、强化风险防控提供专业指导与实践遵循,是对通用及领域专项伦理审查制度的重要补充。

四、相关企业的合规建议
为全面落实人工智能科技伦理合规要求,企业可从以下维度构建完善的伦理管理体系:
1. 完善组织架构,落实主体责任:对照相关法律法规的要求,设立专属人工智能科技伦理委员会,配备技术、伦理、法律等跨领域专业委员;暂不具备条件的中小微企业,可委托地方或主管部门设立的人工智能科技伦理审查与服务中心开展审查、咨询服务;同时指定企业伦理审查负责人与合规联络员,统筹伦理审查申请、材料提交、跟踪审查、登记备案等全流程工作。
2. 健全内部制度,实现全流程管控:制定内部伦理审查的专项管理制度,明确审查范围、流程、权限与跟踪审查要求,将伦理审查嵌入项目立项、研发、测试、上线、迭代全生命周期;建立伦理风险前置评估机制,区分低、中、高风险等级并对应适用简易、一般、应急程序;对人机融合系统、舆论动员算法模型、高风险场景自主决策系统三类高风险活动直接启动专项审查流程。
3. 强化交叉领域合规适配:针对人工智能 + 医疗、自动驾驶等领域,除遵守通用人工智能伦理规则外,需同步参照对应领域专项伦理指引;对于金融人工智能、教育人工智能等跨行业应用,主动对接金融、教育、网信等行业主管部门监管要求,实现科技伦理审查与行业合规监管无缝衔接,避免规则冲突漏洞。
4. 严守法定监管义务:严格履行科技伦理信息登记与年度报告义务,主动配合科技部、工信部及地方监管部门的信息共享与监督检查,杜绝应审未审、弄虚作假等违规行为。
5. 建立应急处置机制:发现伦理审查违规或风险扩大情形时,立即暂停相关人工智能科技活动,启动整改与重新审查程序,避免风险和损害后果进一步扩大,有效降低追责风险。
结语
《办法》作为人工智能领域首部专门性伦理审查制度,既实现了国家科技伦理治理要求在人工智能场景的精准落地,也破解了行业伦理审查“谁来审、审什么、怎么审”的实践难题,为技术创新划定伦理边界、为产业发展明确合规路径。
面向人工智能深度融合应用的未来,唯有严格遵循伦理审查规范、压实主体责任、完善风险防控、强化伦理服务支撑,才能真正平衡技术创新与安全发展、产业效率与社会公平。“以道驭术”才能保证科技发展的行稳致远和安全可靠。
实习生李佳璇对本篇文章有突出贡献
注释
[1] 根据《办法》第二条,需要接受审查的人工智能科技活动范围包括:
1. 可能危害人格尊严、公共秩序、生命健康、生态环境等具有伦理风险的人工智能科研与技术开发活动;
2. 法律法规及国家规定应当开展伦理审查的其他人工智能科技活动。
[2] 《办法》第十五条
[3] 《办法》第二十一条 工业和信息化部、科技部会同有关部门制定发布“需要开展科技伦理专家复核的人工智能科技活动清单”(以下简称复核清单),根据工作需要进行动态调整。本次办法中附录的清单包括:一、对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发。二、具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发。三、面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。