适用场景
计划或正在使用开源AI模型(如LLaMA)进行产品开发、训练或商业化的中国出海科技企业,特别是处于中间层和应用层的AI产品开发者。
核心要点
1. 开源AI模型不等于可自由商用
许多知名AI模型(如Meta的LLaMA)采用混合许可模式,其核心组件(如模型代码、权重参数)可能受限于非商业许可。企业需仔细审查模型不同部分(如推理代码、模型权重)分别适用的具体协议条款,不能默认其为完全开源。
2. 未经授权使用的著作权侵权风险
模型代码作为计算机软件受著作权保护,未经许可复制、部署或向公众传播可能侵犯复制权和信息网络传播权。模型参数的著作权属性虽存争议,但在法律明确前,未经授权的商业使用仍存在法律风险。
3. 潜在的商业秘密侵权风险
若企业在模型代码或参数被公开前通过非正当手段获取并使用,且权利人已采取保密措施,可能构成侵犯商业秘密。即使使用已泄露的模型,若在获取时‘明知或应知’其来源不正当,也可能被视为侵权。
4. 协议合规是风险管理的核心
风险主要源于违反模型发布者设定的使用许可协议。例如,违反LLaMA的非商业研究许可进行商用,可能构成违约并引发法律诉讼。企业必须将协议审查作为技术选型的必要前置步骤。
实务建议
- 在技术选型阶段,务必全面审查目标AI模型所有组件(代码、参数、工具)的官方许可协议,明确商业使用的限制与条件。
- 建立内部AI模型使用审批流程,法务或合规团队需对模型许可协议进行风险评估并出具意见,技术团队不得擅自使用未获批准的模型。
- 优先选择许可证明确允许商业用途的开源模型(如Apache 2.0, MIT),或考虑从官方渠道申请商业许可。
- 对基于第三方模型开发的产品进行代码审计,确保未嵌入受限制的模型代码或参数,做好代码溯源记录。
- 密切关注主要AI模型发布者(如Meta、Google)对未授权使用的执法动态和司法案例,及时调整合规策略。
风险提示
- 误区:认为从公开网络(如Github泄露链接)下载的模型即可自由使用。注意:公开可获得不等于法律上可商用,仍需遵守原始许可。
- 误区:只关注模型性能,忽略许可协议审查。注意:这是最常见的合规漏洞,可能导致产品下架、高额赔偿和商誉损失。
- 注意事项:混合许可模型风险高。一个模型的不同部分可能适用不同协议(如GPL v3与定制非商业协议),需分别厘清。
- 注意事项:模型参数的著作权状态存在法律不确定性,在当前司法实践未明确前,应持最谨慎态度,避免将其用于核心商业产品。