适用场景
所有计划或正在向中国境内公众提供生成式人工智能(AIGC)服务的出海企业,包括研发、部署及运营相关AI产品与服务的阶段。
核心要点
1. 监管原则与框架
国家对生成式AI技术采取包容鼓励与审慎监管并重的原则,实行分类分级监管。监管体系以《生成式人工智能服务管理暂行办法》为核心,并与《算法推荐管理规定》、《深度合成管理规定》及《网络安全法》、《数据安全法》、《个人信息保护法》等共同构成复合监管框架。企业需根据自身服务风险等级匹配合规投入。
2. 明确适用范围与主体
《办法》主要规范向中国境内公众提供生成文本、图片、音频、视频等内容的服务。企业内部研发、自用或未向境内公众提供的服务,原则上不适用。但境外实体向境内提供服务同样受管辖,网信部门可采取必要处置措施。使用(而不仅是提供)AI服务也需遵守相关义务。
3. 核心合规义务聚焦
提供者需履行多项核心义务:对训练数据来源合法性负责并提升数据质量;采取有效措施防止生成歧视性、违法不良信息;对生成内容进行标识;依法保护用户输入信息与使用记录;建立用户投诉举报机制。若服务具有舆论属性或社会动员能力,还需履行算法安全评估和备案义务。
4. 内容安全与用户权益保护
企业必须建立有效的内容安全治理机制,包括发现违法内容时采取停止生成、传输等处置措施,并优化模型、向主管部门报告。同时,需保障服务安全稳定,明确并公开服务适用场景,采取措施防止未成年人用户过度沉迷,并依法响应个人信息主体的权利请求。
5. 法律责任与执法趋势
违规责任主要援引《网络安全法》、《数据安全法》、《个人信息保护法》等上位法。法律空白处,主管部门可警告、责令改正,甚至暂停服务。多部门(网信、发改、工信、公安等)将依据职责协同监管,形成针对AI的监管合力。企业需建立全链条合规制度以应对。
实务建议
- 立即开展合规差距分析:对照《办法》及关联法规,评估自身AI服务的训练数据、算法模型、内容过滤、用户协议等环节的合规现状。
- 建立健全内容安全审核与应急处置机制:制定从内容生成、识别到处置、报告、模型优化的全流程管理规程。
- 强化数据全生命周期管理:确保训练数据来源合法,对标注过程进行规范管理与核验,并严格保护用户输入信息与使用记录。
- 进行算法影响自评估:判断服务是否具有“舆论属性或社会动员能力”,以确定是否需要履行算法备案义务。
- 更新用户协议与隐私政策:明确告知服务范围、使用规则,并嵌入符合《个人信息保护法》的用户权利响应机制。
- 设立内部合规岗位或寻求外部支持:指定专人负责AI合规,或与专业法律及合规团队合作,持续跟踪监管动态。
风险提示
- 误区:认为仅内部研发或未对公众开放的服务无需合规。正解:一旦计划或开始向境内公众提供服务,即需立即适用《办法》。
- 误区:忽视“使用”AI服务的义务。正解:企业利用第三方AI工具生成内容用于业务时,也需确保不传播违法信息、尊重知识产权等。
- 注意事项:训练数据合规是源头风险,需建立审核机制,但《办法》未要求绝对保证数据“真实性”,而是要求“采取有效措施提高”数据质量。
- 注意事项:内容标识义务需遵循《深度合成规定》的具体要求,确保AI生成内容可被识别。
- 注意事项:多部门监管已成常态,需同时关注网信、行业主管(如广电、新闻出版)等多方面的潜在要求。