适用场景
面向中国境内公众提供生成式AI服务的出海企业,包括技术开发、服务提供及集成应用阶段
核心要点
1. 明确监管适用范围与例外
办法主要规制向中国境内公众提供生成式AI服务的行为,无论服务来源于境内或境外。但企业内部研发、未向境内公众提供的内部使用,以及特定行业(如新闻出版)另有规定的场景可适用例外。企业需首先判断自身业务是否落入监管范围。
2. 开发阶段的数据与训练合规核心
训练数据必须来源合法,尊重知识产权与个人信息权益。需制定清晰的标注规则,确保数据质量与标注准确性。企业应特别注意,使用受版权保护的内容进行训练可能面临侵权风险,需谨慎评估授权必要性及合理使用可能性。
3. 服务提供者的多重责任与义务
提供者需承担网络信息内容生产者责任,履行网络安全义务。必须与用户签订服务协议,明确双方权利义务,特别是生成内容的权利归属与侵权责任划分。同时,对违法内容及使用者行为负有监测、处置和报告义务。
4. 内容标识与特殊保护要求
生成的图片、视频等内容必须按照《深度合成管理规定》进行标识,以便识别和追溯。此外,提供者必须采取有效措施,防止未成年人用户过度依赖或沉迷生成式AI服务,履行更高的保护义务。
5. 安全评估与备案的触发条件
并非所有服务都需要事前安全评估和算法备案。只有当生成式AI服务具有‘舆论属性或社会动员能力’时,才需依法开展安全评估并履行备案手续。企业需根据自身服务特性进行判断。
实务建议
- 立即开展业务自查:判断您的AI服务是否面向‘中国境内公众’,明确是否受本办法直接规制。
- 全面梳理训练数据:审核数据来源的合法性,建立知识产权与个人信息合规清单,对高风险数据获取必要授权。
- 制定并优化用户协议:清晰界定AI生成内容的权利归属、使用限制,以及用户与平台的责任边界。
- 建立内容标识与过滤机制:确保所有AI生成内容可被识别、追溯,并部署技术措施过滤违法不良信息。
- 完善未成年人保护措施:考虑引入时间管理、权限验证、适龄提示等功能,防范沉迷风险。
- 建立内部投诉举报与应急响应流程:设置便捷入口,明确处理时限,并准备好配合监管检查所需的技术与数据支持。
风险提示
- 误区:认为所有AI服务都需要事前安全评估。正解:仅‘具有舆论属性或社会动员能力’的服务需要。
- 误区:忽视训练数据的知识产权风险。正解:使用受版权保护内容进行商业训练,很难适用‘合理使用’,建议优先获取授权或使用合法开源数据。
- 注意事项:用户输入信息可能包含商业秘密或个人隐私,需在协议中明确保密条款,并谨慎决定是否将其用于模型再训练。
- 注意事项:AI生成内容的标识不等于著作权署名,内容是否构成作品仍需根据人类参与创作的独创性来判断。
- 注意事项:即便使用者利用AI从事违法活动,提供者在符合法规前提下可免于承担主要责任,但仍负有采取警示、限制功能、报告等处置措施的法定义务。