适用场景
所有计划或正在利用生成式人工智能(AIGC)技术向中国境内公众提供服务的出海企业,包括模型层和应用层服务商,以及使用境外AIGC技术作为底层支持的国内厂商。
核心要点
1. 适用范围广泛,涵盖境外服务
《暂行办法》适用于所有向中国境内公众提供AIGC服务的活动,无论服务提供者位于境内还是境外,也无论是直接提供服务还是通过API等间接方式提供。这意味着,使用境外大模型作为技术支持的国内厂商,其行为同样受到监管约束。
2. 分类分级监管是未来方向
监管确立了包容审慎和分类分级监管的原则。虽然具体规则尚未出台,但预计未来会根据AIGC服务的风险等级(如舆论属性、社会动员能力)实施差异化监管。企业可参考欧盟《人工智能法案》的风险分类思路进行前瞻性评估。
3. 服务提供者义务的调整与明确
相比征求意见稿,正式办法对服务提供者的义务进行了合理化调整,例如将“保证数据质量”修改为“采取措施提高数据质量”,并取消了强制用户实名制等要求。但同时新增了签订服务协议、对用户违法活动进行警示、限制功能、保存记录并报告等义务。
4. 安全评估与算法备案有条件触发
并非所有AIGC服务都需要进行安全评估和算法备案。只有当服务被认定为“具有舆论属性或社会动员能力”时,才需履行这两项义务。新闻、社交、直播、教育、聊天等领域的AIGC应用被认定的可能性较高。
5. 外商投资与境外服务面临明确规制
办法首次明确,外商投资AIGC服务需符合外商投资相关法律法规。同时,对于不符合规定的境外来源服务,国家网信部门可采取技术措施予以处置。这给依赖境外底层技术的国内“封装”服务带来了服务中断的潜在风险。
实务建议
- 明确业务性质:首先判断您的AIGC服务是否“向境内公众提供”。若仅为内部研发或使用,不对外服务,则基本不适用本办法,但仍需遵守网络安全、数据保护等其他法规。
- 评估监管门槛:自查您的AIGC服务是否可能被认定为具有“舆论属性或社会动员能力”(如涉及新闻、社交、内容生成等)。若是,需提前准备进行安全评估和算法备案。
- 审视技术来源:如果您的服务底层依赖于境外AIGC技术(如通过API调用),需评估该境外服务商是否可能因不符合中国法规而被阻断,并制定应急预案。同时,需关注该合作是否涉及数据出境。
- 履行服务提供者义务:建立健全内容过滤机制,与用户签订清晰的服务协议,制定对用户违法活动的监测、警示、限制功能、记录和报告流程。
- 关注立法动态:密切关注《人工智能法》的立法进程及后续分类分级监管细则、外商投资限制等配套规定的出台,及时调整合规策略。
风险提示
- 切勿违规“封装”境外服务:直接“封装”境外大模型向国内用户提供收费服务,可能涉嫌非法经营等刑事风险,已有相关案例。
- 避免连带责任风险:国内厂商使用境外技术时,需在合作协议中明确双方责任划分,避免因境外服务商违规而导致自身承担连带责任。
- 误判“安全港”范围:注意“内部使用不适用”的例外有严格限定,必须是“未向境内公众提供服务”。任何形式的对外提供,包括间接提供,都可能落入监管范围。
- 忽视数据出境合规:在利用境外AIGC技术过程中,如果涉及向境外提供训练数据或用户输入数据,必须完成数据出境安全评估等相关合规流程。
- 低估分类监管影响:不要因为当前细则未出而忽视此原则。未来监管必然差异化,高风险业务将面临更严要求,应提前进行自我风险评估。