适用场景
适用于所有开发、提供或使用人工智能技术(特别是生成式AI)的中国出海企业,无论其业务规模大小,尤其是在产品设计、研发、部署及运营阶段。
核心要点
1. 框架定位与合规基础
《AI安全治理框架1.0》是中国AI监管的指导性文件,与现有《生成式AI服务管理暂行办法》、《算法推荐管理规定》等共同构成AI合规体系。出海企业需将其视为重要参考,以降低AI技术带来的风险。
2. 内生安全风险与应对
框架强调AI自身缺陷带来的风险,包括模型算法(可解释性差、偏见、鲁棒性弱、被窃取/篡改)、数据(违规收集、投毒、泄露、跨境传输)和系统(缺陷/后门、算力、供应链)安全。企业需在AI全生命周期内加强技术防范。
3. 应用安全风险与治理
AI应用可能引发网络域(内容安全、误导用户)、现实域(违法犯罪、两用物项滥用)、认知域(信息茧房、认知战)和伦理域(歧视、社会秩序挑战)风险。框架要求企业建立安全防护、明确服务边界、实施分类分级管理及可追溯制度。
4. 跨境传输与供应链安全
框架特别指出,涉及向境外提供AI模型算法需符合出口管制要求;同时,高度关注芯片、软件、工具、算力和数据资源等AI供应链安全,这对于出海企业至关重要。
5. 多主体指引与协同治理
框架为模型算法研发者、服务提供者、重点领域使用者和社会公众提供了具体的安全开发应用指引,倡导技管结合、开放合作的协同治理模式,鼓励企业积极参与并建立健全内部治理机制。
实务建议
- 全面评估AI系统风险:对现有及规划中的AI产品和服务进行内生(模型、数据、系统)和应用(网络、现实、认知、伦理)安全风险评估。
- 建立AI安全开发规范:在AI设计、研发、部署、维护全流程中融入安全开发规范,确保模型可解释性、可预测性,并加强鲁棒性。
- 强化数据合规与保护:严格筛选训练数据,确保不含敏感内容;建立完善的数据安全和个人信息保护制度,并特别关注AI模型算法跨境传输的出口管制要求。
- 关注AI供应链安全:识别并管理AI供应链中的潜在风险,包括芯片、软件、工具、算力及数据来源,确保供应链的稳定性和安全性。
- 实施AI应用分类分级管理:根据AI应用的风险等级和影响范围,建立相应的分类分级管理制度,并确保生成内容的标识和可追溯性。
- 建立应急响应与信息共享机制:设立AI安全事件应急处置预案,并积极参与行业内的安全风险威胁信息共享,提升协同应对能力。
- 培养AI安全合规人才:加大对AI安全和合规人才的培养力度,提升团队的风险识别和管理能力。
风险提示
- 忽视指导性文件的约束力:尽管是“指导性文件”,但《AI安全治理框架》反映了中国监管机构的立场和趋势,忽视可能导致未来合规风险。
- 仅关注技术合规,忽略伦理与社会风险:AI合规不仅限于技术层面,还需高度重视其可能引发的偏见歧视、信息茧房、社会伦理等非技术风险。
- 跨境数据与模型传输风险:未充分理解和遵守中国及目的国关于AI模型算法和训练数据跨境传输的出口管制及数据安全要求,可能面临法律制裁。
- 供应链安全盲区:对AI核心组件(如芯片、算力、关键软件)的供应链安全缺乏关注,可能导致系统性风险。
- 缺乏全生命周期管理:未能在AI产品的设计、研发、部署、运营及维护全生命周期中嵌入合规管理,导致风险累积。