适用场景
从事人工智能技术开发、应用或服务的中国出海企业,尤其是在欧美、新加坡、韩国等市场运营,或产品涉及生成式AI、算法推荐、数据训练等业务的企业。
核心要点
1. 中国:双备案制度与安全评估已成常态
中国对生成式AI服务实行算法备案和大模型备案双轨制,2024年备案数量激增。企业需重点关注模型安全、内容安全评估,并应对日益增多的知识产权与人格权侵权诉讼风险。
2. 欧盟:基于风险的严格立法与数据保护
欧盟《人工智能法案》已生效,采用风险分级管理,对高风险系统设定了详尽义务和高额罚款。同时,欧盟数据保护机构对使用个人数据训练AI模型监管严厉,企业需满足GDPR的严格告知与合法性要求。
3. 美国:渐进式治理与行业主导标准
美国短期内不会出台联邦综合性AI立法,倾向于通过行政命令、行业标准(如NIST框架)及司法判例进行渐进式、部门化的监管。重点领域包括数据隐私、国家安全、知识产权和内容真实性。
4. 其他重点市场:新加坡指南与韩国立法
新加坡主要依赖非强制性的治理框架和指南。韩国则成为亚洲首个通过《人工智能发展和建立信任基本法》的国家,旨在平衡发展与信任,企业需关注其配套法规的落地。
5. 全球共同挑战:数据训练与内容责任
使用受版权保护内容或个人数据训练AI模型在全球面临诉讼和监管挑战。同时,AI生成内容的真实性、深度伪造及平台责任成为各国监管和执法的共同焦点。
实务建议
- 进入中国市场前,务必完成算法备案或生成式AI服务备案,并依据《安全基本要求》进行安全评估。
- 在欧盟运营,立即评估产品是否属于《人工智能法案》下的‘高风险’系统,并提前规划合规义务(如风险管理、技术文档、人类监督)。
- 若使用用户数据训练AI,尤其在欧盟,必须获得有效法律依据(如明确同意),并履行充分、透明的告知义务。
- 关注美国NIST的《人工智能风险管理框架》及生成式AI子框架,将其作为内部治理和风险管理的参考基准。
- 建立AI生成内容标识(如水印)和溯源机制,以应对全球范围内对内容真实性的监管要求。
- 在产品开发早期即进行知识产权侵权风险评估,避免使用未获授权的数据或素材进行训练。
- 设立专门的应急响应机制,以应对可能的内容安全事件或监管调查。
风险提示
- 切勿忽视中国的双备案要求,未备案即提供服务将面临责令整改、关停服务等处罚。
- 在欧盟,不要假设‘合法利益’可轻松作为数据训练的依据,需通过严格的三步测试并采取缓解措施。
- 避免简单照搬美国相对宽松的隐私政策到欧盟地区,这可能导致巨额罚款。
- 警惕AI生成物可能侵犯他人著作权、肖像权、声音权等,需提前进行合规审查。
- 即使是通过API调用已备案大模型,若面向中国公众提供服务,也需进行登记,不可遗漏。
- 认为新加坡的指南无强制力而完全忽视,其反映了监管期望,是风险管理的良好实践。