适用场景
计划或正在海外市场提供、使用生成式人工智能(如对话机器人、内容生成工具)或深度合成技术(如人脸替换、虚拟场景生成)的中国出海企业,特别是在产品研发、服务上线及运营阶段。
核心要点
1. 技术定义与监管范围差异
生成式人工智能(AIGC)监管范围更广,涵盖基于算法、模型、规则生成内容的技术,侧重行业健康发展;深度合成技术主要针对利用深度学习等算法进行内容编辑和伪造的场景,侧重互联网信息治理。企业需根据自身技术类型判断主要适用的法规。
2. 核心合规义务对比
两项法规均要求内容符合法规和社会主义核心价值观,但在数据管理和输出处置上各有侧重。深度合成规定强调对输入数据和合成结果的审核,并监管提供者、技术支持者及使用者;生成式AI办法更强调训练数据来源的合法性、个人信息保护,并要求提供者对不良输出内容进行模型优化训练。
3. 法规衔接与协同义务
提供生成式AI服务可能同时触发多项合规义务。例如,向公众提供服务前需按规定进行安全评估和算法备案;生成图片、视频等内容需按深度合成规定进行标识。企业需建立联动合规机制,避免遗漏交叉义务。
实务建议
- 明确技术定位:首先厘清自身产品属于生成式AI、深度合成还是兼具两者特征,以确定主要合规框架和重点义务。
- 建立数据合规体系:确保训练数据(尤其是预训练和优化训练数据)来源合法,包含个人信息时需取得同意,并采取措施保证数据真实性、准确性、多样性。
- 履行前置程序:若服务具有舆论属性或社会动员能力,务必在提供服务前完成网信部门的安全评估申报及算法备案手续。
- 实施内容审核与标识:对AI生成的内容(特别是图片、视频)建立人工或技术审核机制,并对深度合成内容依法进行显著标识。
- 制定模型优化流程:建立机制,对运行中发现的或用户举报的不合规生成内容,不仅进行过滤,还需在限期内通过模型优化训练防止再次生成。
风险提示
- 切勿混淆适用:不要简单认为两项法规监管对象完全相同,需仔细比对技术细节和应用场景,避免套用错误合规要求。
- 避免数据来源侵权:训练数据需确保不侵犯知识产权,并履行个人信息保护义务,否则将面临数据合规风险。
- 忽视标识义务:对生成的图片、视频等内容未按深度合成规定进行标识,可能构成违规。
- 遗漏协同备案:仅关注单一规定而忽略安全评估、算法备案等交叉要求,导致服务上线受阻。
- 应对措施单一:对不良输出内容仅采取暂停服务等简单处置,未履行模型优化训练的持续改进义务。