适用场景
从事人工智能生成内容(AIGC)技术开发、应用或服务的中国出海企业,在技术研发、产品部署及日常运营阶段均需关注。
核心要点
1. 数据安全与跨境传输风险
AIGC服务涉及大量数据处理,用户输入和生成内容可能包含个人信息、商业秘密甚至敏感数据。数据跨境传输至境外服务器(如ChatGPT模式)需严格遵守中国《数据安全法》《个人信息保护法》及目的国法规,完成安全评估、认证或标准合同备案。
2. 著作权侵权双重风险
风险存在于两个环节:一是训练模型时使用受版权保护的数据集,若未经授权可能侵犯复制权、改编权;二是生成内容可能与现有作品构成‘实质性相似’,导致输出结果本身侵权。使用侵权内容的企业也可能承担连带责任。
3. 内容安全与深度伪造隐患
AIGC可能生成或传播违法不良信息、虚假内容(如深度伪造的音视频),或放大算法偏见。企业需履行内容审核义务,对深度合成内容进行显著标识,并建立日志留存和过滤机制,以防传播风险。
4. 商业秘密泄露风险
员工在使用公共AIGC工具时,可能无意中输入公司技术细节、商业计划或客户数据。这些信息可能被服务商用于模型训练,导致机密信息永久性泄露,违反企业内部保密义务和合同约定。
实务建议
- 建立数据分类分级制度,对训练数据及用户输入数据进行筛查,确保使用个人信息已获合法授权,重要数据出境前完成法定评估程序。
- 在用户协议中明确约定AIGC生成内容的版权归属、使用权限及责任划分,避免潜在权属纠纷。
- 部署内容过滤与审核系统,对输入提示词和生成结果进行双重审查,对深度合成内容添加不可篡改的标识。
- 制定员工使用外部AI工具的保密指引,明确禁止输入涉密信息,考虑部署企业级合规AI工具或本地化部署方案。
- 遵循《互联网信息服务深度合成管理规定》,建立算法机制机理审核、数据安全管理和违法违规内容处置机制。
风险提示
- 切勿认为‘技术中立’可免除法律责任,AIGC服务提供者需对训练数据合法性、输出内容安全性负责。
- 避免直接使用未经清洗和授权的开源数据集进行商业模型训练,需评估其版权许可范围。
- 在用户协议中单方面声明‘无限权利’可能无法对抗法律法规的强制性规定,尤其在欧盟等严格司法辖区。
- 忽视对生成内容的审核和标识义务,可能面临高额行政处罚甚至刑事责任,尤其是在涉及虚假信息、诽谤等领域。