适用场景
所有研发、利用生成式人工智能技术(如文本、图像、代码生成模型),并面向中国境内公众提供服务的出海企业,在产品研发、上线及运营全阶段均需关注。
核心要点
1. 广泛的适用范围与主体责任
无论企业实体位于何处,只要其生成式AI服务面向中国境内公众,即受监管。服务提供者(包括提供API接口者)需承担生成内容的生产者责任,并对内容安全、数据来源合法性等负主体责任。
2. 内容安全与价值观合规是核心
生成内容必须体现社会主义核心价值观,确保真实准确,并防止产生虚假、歧视、侵权及违法信息。企业需在算法设计、数据训练、服务提供等全流程采取措施,从源头防范风险。
3. 严格的准入与持续运营义务
服务上线前需完成安全评估与算法备案。运营中需履行用户实名、防止沉迷、内容标识、投诉处理、模型优化(针对问题内容需在3个月内优化)及服务稳定等一系列持续性合规义务。
4. 训练数据来源合法性要求高
企业对预训练和优化训练数据的来源合法性负责。数据需合法、不侵权、如需包含个人信息须获同意,并保证真实性、准确性、客观性和多样性,这对数据采购与清洗提出挑战。
5. 用户权益保护与监管协同
企业需建立用户投诉机制,保护用户输入信息,不得非法留存或用于画像。同时有义务教育用户理性使用,并主动监测、处置用户利用服务进行的违法违规行为,与监管形成协同。
实务建议
- 立即对照《办法》要求进行合规差距分析,重点审查内容安全策略、数据来源、用户协议与隐私政策。
- 规划并提前启动安全评估与算法备案流程,将其视为产品上市的前置必备环节。
- 建立覆盖全生命周期的内容审核与过滤机制,包括事前防范、事中监测和事后处置(如3个月内模型优化)。
- 完善数据治理体系,确保训练数据来源合法合规,特别是涉及个人信息时需获得有效同意。
- 在产品界面明确标识AI生成内容,并设置防沉迷提示,公开服务的适用人群、场合和用途。
- 建立健全用户投诉与举报响应机制,制定清晰的内部流程,以快速处理侵权与违法内容投诉。
风险提示
- 切勿认为仅提供API接口或服务不直接面向公众就可规避监管,“间接面向”和“支持他人生成”也可能被纳入适用范围。
- 避免对“虚假信息”和“歧视性内容”做过于狭隘的理解,监管要求可能比技术初衷更严格,需以合规视角重新定义产品边界。
- 注意“生产者责任”远高于“平台责任”,企业可能需要对生成内容承担更高的主动审查和注意义务,不能简单适用“避风港规则”。
- 训练数据“真实性、准确性”要求与使用合成数据训练的业务实践可能存在冲突,需谨慎评估并关注后续细则。
- 忽视用户实名、内容标识、防沉迷等运营细节要求,可能导致合规处罚,并影响服务稳定性(如被要求暂停服务)。