适用场景
本指南适用于所有开发、部署或集成人工智能(AI)及人工智能生成内容(AIGC)技术的中国出海企业,无论其处于产品研发、市场推广还是日常运营阶段,尤其关注涉及数据处理、算法应用和内容生成的业务场景。
核心要点
1. 算法合规
中国对算法推荐和深度合成技术有严格规定,出海AI/AIGC企业需履行算法审核评估、显著标识、可解释性、内容审查、用户自主决定权、备案及安全评估等义务,确保算法透明与可控。
2. 个人信息保护
依据《个人信息保护法》,AI/AIGC在训练和使用过程中可能涉及大量用户个人信息,企业面临用户权益响应(如撤回、修改、删除)困难及训练数据来源合法性(最小必要原则)的挑战。
3. 著作权保护
AIGC生成内容的著作权归属存在争议,需明确人类参与度以判断是否构成作品;同时,AI训练数据可能侵犯第三方作品的复制权、改编权、署名权等,需严格把控数据来源合规性。
4. 反垄断风险
AI算法可能导致市场不公平竞争,包括利用消费者数据进行算法价格歧视,以及通过明示、默示或虚拟方式形成价格算法合谋,损害消费者利益和市场公平。
5. 内容与未成年人保护
AI生成内容可能包含违法信息,对内容审核提出高要求;此外,在数据处理和内容输出中,企业需严格履行未成年人保护义务,避免潜在的法律风险。
实务建议
- 在AI项目启动初期即进行风险评估与控制,可采用定向邀请或局部试点等方式充分测试,识别潜在合规及技术问题。
- 建立健全AI治理架构、伦理政策及内部规章制度,并充分考虑目标市场在法规、文化、道德层面的差异性。
- 定期对算法进行动态自评估,尤其在算法升级或业务调整时,确保及时识别并有效处理合规风险。
- 对外部供应商采取严格的协议控制措施,并进行技术检测,以规避因第三方服务质量问题带来的合规风险。
- 在产品或服务中向用户提供显著、明确且合法的风险提示和隐私政策说明,保障用户的知情权和选择权。
- 建立数据来源控制机制和合规评审制度,从数据类型、来源、获取方式、频率及量级等多维度评估训练数据的合规性。
- 密切关注国内外AI相关法律法规和政策动态,积极参与行业交流,确保企业合规策略与时俱进。
风险提示
- AIGC生成内容的著作权归属尚无明确法律定论,人类参与度是判断作品属性的关键,可能面临权属不明风险。
- AI训练数据若未经授权使用受著作权保护的作品,可能构成侵权,包括复制权、改编权、署名权等。
- AI算法的“黑箱”特性使得用户难以有效行使其个人信息权益(如撤回、修改、删除),企业需探索有效的响应机制。
- 算法可能被用于实施价格歧视或形成垄断合谋,引发反垄断调查及处罚风险。
- AI生成内容可能包含违法、不当信息,企业需投入大量资源进行内容审核,并承担相应法律责任。
- 境外AI技术提供商与境内企业合作时,境外方协助境内主体履行算法备案等合规义务可能面临意愿和可行性挑战。
- 在保障个人信息主体权益的同时,如何平衡合规成本与运营效率,实现合规常态化运营,是企业面临的实际难题。