适用场景
利用人工智能技术进行创新药研发、尤其是计划开展多中心临床试验或寻求中美双报(NMPA/FDA)的生物医药企业,在早期药物发现、临床申报及商业化阶段需重点关注。
核心要点
1. 底层合规逻辑:通用法规与数据安全并重
AI技术的引入不能豁免药品研发的传统合规要求。企业仍需严格遵守药品管理及临床试验规范(GCP),同时在训练数据的采集与分析过程中,必须满足目标市场(如中国《个保法》、海外GDPR等)对敏感医疗数据和网络安全的强制性规定。
2. 海外监管风向:FDA的风险评估与透明度要求
以美国FDA最新草案为代表,海外监管机构对AI辅助决策持审慎态度。重点审查训练数据是否“适用”(相关且可靠)、算法模型的方法论是否透明,以及模型在面对新数据时是否会发生“数据漂移”,要求企业建立基于风险的可信度评估框架。
3. 知识产权困境:算法保护与侵权举证难题
AI算法迭代极快,与长达20年的专利保护期存在错位;且由于AI模型的“黑盒”属性,一旦发生数据泄露或技术被盗用,企业在维权时面临极大的举证困难。此外,行业内缺乏统一的数据共享机制,极易引发底层数据的所有权纠纷。
4. 发明人认定规则:AI不可作为法定发明人
目前各国专利审查实践普遍不认可AI作为专利发明人。在AI辅助制药的专利申请中,必须明确并突出自然人在整体构思、模型开发、数据筛选及实验验证等关键环节的实质性贡献,以确保专利权利的稳定性。
实务建议
- 在针对FDA等海外监管机构的申报准备中,提前制定详细的“AI模型可信度评估方案”,清晰记录数据来源、处理标记过程及模型训练参数。
- 建立严格的研发数据溯源与授权审查机制,确保用于训练AI模型的第三方数据集或开源数据不侵犯他人知识产权或违反隐私法规。
- 在AI模型部署或新药商业化出海前,务必在全球目标市场开展全面的FTO(自由实施)尽职调查,排查潜在的专利侵权风险。
- 针对AI算法的保护策略,建议采用“核心算法作为商业秘密保护 + 药物分子结构及应用场景申请专利”的组合拳,以应对算法迭代快的问题。
- 在研发立项初期即与海外监管机构(如FDA)建立沟通机制,就AI模型在特定使用环境(COU)下的风险等级和评估标准对齐监管期望。
风险提示
- 切勿在专利申请文件中将AI系统列为发明人,否则将直接导致专利申请被驳回。
- 警惕“数据漂移”风险,不要认为AI模型部署后即可一劳永逸,必须建立全生命周期的模型维护与性能监测机制。
- 避免在缺乏人工干预和透明方法论解释的情况下,直接将AI输出结果作为高风险临床决策(如受试者用药调整)的唯一依据。
- 在使用公共AI制药平台时,需高度关注平台的用户协议与保密条款,防范企业核心研发数据在上传分析时被平台留存或泄露给竞争对手。