适用场景
面向公众(To C)或企业(To B)提供生成式人工智能(AIGC)服务的中国出海企业,在产品上线或服务提供前需要重点关注。
核心要点
1. 备案义务的判定标准
根据中国《生成式人工智能服务管理暂行办法》,只要您提供的生成式人工智能服务具有“舆论属性”或“社会动员能力”,就必须进行备案。判断标准通常基于服务是否允许用户注册和发布内容,且该义务已从To C业务明确延伸至To B业务。
2. 备案流程与监管部门
备案申请需提交至企业注册地或主要运营地所在的省级网信办。流程包括省级初审、模型测试,最终由中央网信办审批并征求相关部委意见,整体耗时可能为数月。
3. 核心合规要求(基于《安全基本要求》)
备案审核的核心依据是《生成式人工智能服务安全基本要求》。它从语料安全、模型安全、安全措施等多维度提出要求,重点关注训练数据的来源合法性、内容过滤、知识产权与个人信息保护,以及生成内容的准确性与安全性。
4. 技术安全与内容管控
服务提供者需建立大规模关键词库(建议不少于10000个)和测试题库,并采取技术措施对输入和生成内容进行安全检测与过滤。对于图片、视频等内容,需按规定进行标识。
5. 基础模型与供应链安全
根据规定,使用的第三方基础模型应是在中国主管部门已完成备案的模型。同时,需评估训练和推理所涉及的芯片、软件、算力等供应链的安全风险。
实务建议
- 在服务开发早期即进行合规评估,判断自身服务是否具有“舆论属性”或“社会动员能力”,以明确备案义务。
- 严格按照《生成式人工智能服务安全基本要求》建立内部管理制度,特别是语料来源审核、内容安全过滤、知识产权与个人信息保护机制。
- 提前准备备案所需材料,包括安全评估报告、服务协议、语料规则、关键词列表和测试题库等。
- 若服务涉及未成年人、金融、医疗等重要场景,或收集用户输入用于模型训练,必须设置专门的保护措施并明确告知用户。
- 确保技术准备就绪,以配合网信办可能进行的API接口测试、产品体验及裸模型测试。
风险提示
- 切勿认为仅面向企业(To B)提供服务就无需备案,监管范围已明确覆盖具有相应属性的To B服务。
- 避免使用未在中国完成备案的境外基础模型,这可能导致无法通过安全评估。
- 忽视语料来源的合法性与安全性是重大风险,需对开源、自采、商业采购等不同来源的语料建立严格的审核记录与协议。
- 内容安全过滤机制不健全(如关键词库规模不足、测试题过少)将无法有效拦截违法不良信息,导致备案失败或运营风险。
- 未在服务中显著公开适用人群、局限性、算法情况等信息,或未按要求对生成内容进行标识,均不符合合规要求。