适用场景
面向中国境内公众提供生成式AI服务的出海企业,包括研发、部署或通过API接入提供文本、图像、声音、视频等内容生成服务的公司,在服务上线前及运营阶段均需关注。
核心要点
1. 适用范围:明确“境内公众”服务边界
无论服务提供者位于境内还是境外,只要其生成式AI产品面向中国境内公众提供服务,均需遵守《办法》。这包括直接向终端用户提供,以及通过接入其他服务间接提供的情况。企业需首先判断自身业务是否落入此范围。
2. 内容安全:服务提供者是第一责任主体
服务提供者需承担内容生产者的责任,确保生成内容真实准确,防止虚假信息。同时,需建立机制对违规内容(如侵害肖像权、名誉权、隐私、商业秘密等)进行处置,包括在3个月内通过模型优化训练防止再次生成。
3. 训练数据:源头合法与质量保障是关键
企业需对预训练和优化训练数据的来源合法性负责。若数据包含个人信息,必须征得同意或符合法定情形;不得非法留存可推断用户身份的信息或进行用户画像。同时,需保证数据的真实性、准确性、客观性、多样性,并注意知识产权风险。
4. 算法监管:衔接现有法规体系要求
生成式AI服务还需遵守《算法推荐规定》《深度合成规定》等既有法规。具体包括:提供服务前需完成安全评估与算法备案;确保算法公平,防止歧视;提升算法透明度,按要求公开必要信息;明确公开服务适用场景并设置防沉迷措施。
5. 法律责任:违规将触发多重处罚
违反《办法》将依据《网络安全法》《数据安全法》《个人信息保护法》等进行处罚。若无专门规定,可能面临警告、罚款、责令暂停或终止服务等行政处罚,甚至治安管理处罚或刑事责任,合规风险较高。
实务建议
- 在服务上线前,务必完成国家网信部门要求的安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案手续。
- 建立训练数据合规审查流程,确保数据来源合法,对含个人信息的数据获取明确授权,并建立数据使用记录。
- 制定并实施内容安全管理制度,包括实时过滤、用户举报机制、违规内容处置流程及模型优化再训练方案。
- 按照《互联网信息服务深度合成管理规定》,对生成的图片、视频等内容进行显著标识(目前文本生成暂无强制标识要求)。
- 公开服务的适用人群、场合和用途,并在产品设计中加入防沉迷机制,避免用户过度依赖。
- 准备应对监管询问的材料,包括训练数据的来源、规模、类型、质量描述,以及人工标注规则、基础算法等信息。
风险提示
- 切勿认为服务器在境外或通过API间接服务就可规避监管,只要最终用户在中国境内,即可能适用《办法》。
- 避免对生成内容的“真实准确”要求掉以轻心,需投入技术资源尽可能减少AI“幻觉”产生虚假信息。
- 训练数据切勿随意爬取,需重点审查知识产权与个人信息合规风险,平衡数据质量与法律风险。
- 不要将算法备案和安全评估视为一次性工作,服务发生重大变更时需及时履行变更备案手续。
- 注意《办法》与《算法推荐规定》《深度合成规定》等法规的叠加适用,需满足所有相关要求。