适用场景
从事人工智能技术研发、应用或提供相关服务的中国出海企业,特别是在产品设计、开发及上线前阶段需重点关注。
核心要点
1. 审查范围广泛,覆盖研发到应用全链条
新规不仅规范面向公众的AI服务,更涵盖科学研究、技术开发等非对外服务活动。只要活动可能涉及生命健康、人的尊严、生态环境、公共秩序或可持续发展五大领域的伦理风险,均需进行伦理审查,体现了从源头治理的思路。
2. 伦理委员会设立有条件要求
从事AI科技活动的高校、科研机构、企业和医疗机构是责任主体,有条件的单位应设立伦理委员会。委员会需包含技术、应用、伦理、法律等多领域专家,并遵循严格的章程和运作规范。地方主管部门也可能建立服务中心提供委托审查服务。
3. 审查聚焦五大核心原则
伦理审查重点评估公平公正、可控可信、透明可解释、责任可追溯以及人员资质。这些原则虽为纲领性要求,但企业可参考现有算法推荐、生成式AI等法规中的具体义务(如算法公示、规则透明)进行初步对标。
4. 特定高风险活动需专家复核
三类活动在通过初步伦理审查后,还需经过主管部门组织的专家复核:1)对人类行为、心理或健康有强影响的人机融合系统;2)具有舆论社会动员或意识引导能力的算法模型;3)面向高风险场景的高度自主自动化决策系统。已履行其他监管程序(如算法备案)的活动可豁免复核。
5. 审查程序分层,材料要求细化
审查程序分为一般程序(高风险)、简易程序(低风险)和应急程序(紧急状态)。申请材料需详细说明算法机理、数据来源与处理方式、测试评估方法、产品形态及适用人群等,针对性远强于一般科技活动审查。
实务建议
- 立即开展内部评估:梳理企业正在或计划开展的AI研发与应用活动,对照五大风险领域(生命健康、人的尊严等)判断是否落入审查范围。
- 提前规划伦理治理架构:评估自身是否属于“有条件”设立伦理委员会的单位,提前筹备委员会章程、人员构成(需多背景专家)与运作流程。
- 将伦理原则融入产品开发生命周期:在算法设计、数据采集、模型训练及测试评估各环节,嵌入公平性、透明度、可解释性等要求,并留存记录。
- 高风险项目预留复核时间:对于涉及人机交互、舆论引导或高危场景自动化决策的项目,在项目时间表中预留专家复核及可能的重新审查时间。
- 参考现有法规进行初步对标:虽不完全等同,但可参考《生成式AI服务管理暂行办法》、《算法推荐管理规定》等法规中的具体合规义务,作为满足伦理审查要点的实操起点。
- 建立动态跟踪审查机制:对已通过审查的项目,建立不超过6个月的定期跟踪审查机制,并在风险发生重大变化时主动重启审查程序。
风险提示
- 误区:认为仅对外提供AI服务才需合规。新规覆盖内部研发与技术开发活动,范围更广。
- 误区:满足其他AI法规(如生成式AI备案)即等同于通过伦理审查。两者范围和要求有重叠但不完全一致,需分别对标。
- 注意事项:“有条件设立委员会”、“较强影响”、“社会意识引导能力”等关键术语定义尚待明确,在边界模糊时应主动咨询监管或专业机构。
- 注意事项:伦理审查非一次性动作,需持续跟踪并应对风险变化,否则可能面临审查失效或违规风险。
- 注意事项:出海企业需同时关注业务所在国(如欧盟AI法案)的伦理要求,实现国内外合规要求的协同与映射。