适用场景
正在或计划使用、研发生成式人工智能技术的中国出海企业,特别是在技术研发、数据处理和日常运营中涉及敏感信息的企业。
核心要点
1. AI研发中的商业秘密认定
在AI模型开发中,原始公开数据不构成商业秘密,但经过清洗、标注形成的训练数据集、模型权重等,若具备保密性、商业价值并采取了合理保密措施,可构成商业秘密。然而,海量数据的‘秘点’界定和比对在司法实践中存在挑战。
2. 算法与代码的保护路径
算法可能因属‘智力活动规则’而难以获得专利或著作权保护,但可作为商业秘密保护。需注意,基于开源代码的修改可能受开源许可证约束,强制开源义务会与商业秘密保护冲突。同时,算法需满足监管的‘透明性’要求,但这与保护商业秘密核心细节并不矛盾。
3. 应用AI时的泄密风险
员工在使用公共AI工具时,输入的提示词和上传的文件可能包含公司商业秘密,存在被AI服务商获取并用于模型训练的风险。AI生成的内容若基于商业秘密输入,其本身也可能构成新的商业秘密,在传输和存储环节面临网络安全威胁。
4. 数据权益的补充保护
当数据集因公开或不具独创性而无法构成商业秘密或作品时,企业可考虑主张‘数据持有权’等竞争性权益。这适用于企业对数据投入了大量实质性劳动,使其产生了独立商业价值的情形,可作为知识产权保护的补充路径。
实务建议
- 在采购AI服务时,优先考虑支持本地化或私有化部署的方案,确保数据全程在企业可控环境内处理。
- 制定并颁布明确的《AI工具使用指引》,对全体员工进行培训,明确禁止向公共AI输入任何涉密信息,并规定脱敏操作流程。
- 更新技术采购合同中的保密条款,明确约定AI服务商不得将输入/输出数据用于模型训练,并规定数据存储、处理与删除的安全标准。
- 在AI研发中,提前进行开源许可证合规审查,评估自研代码的开源义务,避免与商业秘密保护策略冲突。
- 探索在AI工具访问前端部署‘商业秘密过滤网关’等技术措施,对拟上传内容进行自动识别与拦截。
- 建立AI生成内容的标识与管理流程,评估其是否构成新的商业秘密,并采取相应的保密措施。
风险提示
- 切勿认为所有AI研发数据都能轻易被认定为商业秘密,尤其是原始数据和通用算法,需满足法定三要件。
- 避免忽视开源许可证的‘传染性’条款,盲目在开源基础上进行闭源开发,可能导致知识产权纠纷并被迫开源。
- 严禁员工在未获批准的情况下,使用公共AI工具处理任何工作内容,这是当前最常见的泄密渠道。
- 注意区分算法的‘可解释性’要求与‘完全公开’是两回事,应在满足监管最低要求的同时保护核心算法细节。
- 不要仅依赖单一的知识产权保护方式,应结合商业秘密、数据权益、合同约定等多种手段构建综合保护体系。