适用场景
计划或正在海外市场使用AI语音技术(如智能客服、语音助手、内容生成、虚拟偶像)的中国出海企业,特别是在涉及模仿或合成特定自然人声音时。
核心要点
1. 声音权益受人格权保护,可及于AI生成声音
根据中国《民法典》,自然人的声音权益参照肖像权保护。AI生成的声音如果具有可识别性,即能让公众联想到特定自然人,便构成对该自然人人格权的潜在侵犯。首例AI声音侵权案已明确此原则。
2. 训练素材需同时取得著作权与人格权授权
使用受版权保护的声音素材(如录音制品)训练AI,不仅需要获得录音制品的著作权人许可,还必须获得声音主体(如配音演员、歌手)本人的明确授权,允许对其声音进行AI化使用。二者缺一不可。
3. AI声音输出内容需遵守内容安全与标识规定
生成的AI声音内容不得包含违法、歧视性或违背公序良俗的信息。同时,根据中国相关法规,AI生成的内容需进行显著标识,向用户明确提示其为人工智能合成。
4. 声音数据属于个人信息,需履行个人信息保护义务
自然人的声音属于可识别的个人信息。在收集、使用自然人声音作为AI训练数据时,必须严格遵守《个人信息保护法》等规定,获取个人的单独同意,并履行相应的告知、安全保障等义务。
实务建议
- 在开发或使用模仿特定自然人音色的AI语音产品前,务必与声音主体签订书面授权协议,明确授权范围、使用场景、期限及报酬。
- 若使用已有录音制品作为训练数据,需分别从著作权人(如唱片公司)和声音表演者处获得双重授权,并在协议中明确涵盖AI化使用的权利。
- 建立AI训练数据来源审核机制,确保所有语音素材均具备合法、清晰的权利链条证明文件。
- 在产品中清晰、显著地标注AI语音为“人工智能合成”或类似提示,履行内容标识义务。
- 制定AI生成内容的安全审核流程,防止输出违法违规内容,并建立用户投诉反馈机制。
风险提示
- 误区:认为购买了录音制品的版权或获得了表演者授权,就自动获得了将其声音用于AI训练和合成的权利。事实是,AI化使用是一项独立的、需要声音主体明确同意的权利。
- 误区:认为AI声音与真人声音有差异就不构成侵权。司法实践关注的是“可识别性”,只要公众能关联到特定自然人,即存在侵权风险。
- 注意事项:出海企业需同时关注业务所在国关于声音权、公开权(Right of Publicity)及数据隐私的法律,合规要求可能比国内更严格。
- 注意事项:避免使用来源不明的语音数据包进行训练,这极易引发著作权与人格权的连环侵权诉讼。