您当前的位置:检测资讯 > 法规标准
嘉峪检测网 2025-02-07 12:09
AI 在医疗中的应用范围广泛,从自动化行政功能,到支持临床决策,甚至到透过快速分析海量健康数据提供适性化的治疗建议,AI 正逐步革命性地改变着我们的医疗工作
据文献指出,各国近年来核准具有AI技术的医疗器械数量,逐年增加。一则统计报导,至2024年8月,美国FDA已经通过510(k)、De Novo或PMA等法规途径,批准950款AI技术的医疗器械。其中涵盖了多个医疗专业领域,尤其是放射学领域的增长最为显著。这些医疗器械辅助医生进行影像诊断、肿瘤监测/检测、心血管疾病管理等。
欧美AI/ML技术的SaMD的监管概述
AI在医疗领域的应用若涉及诊断、治疗、缓解或直接预防人类疾病;调节或改善人体结构及机能;调节生育等医疗宣称,则受到医疗器械相关法规的监管,或更具体地说,多半是以医疗器械软件(Software as a Medical Device,SaMD)的框架下进行管理。值得注意的是,这些器械法规并不适用于某些AI应用,例如旨在帮助人们维持健康生活方式的软件(general wellness software)、用于医院行政支援/管理的软件,以 及 部 分 为 医 疗 专 业 人 员 提 供 临 床 决 策 支 援的软件(clinical decision support software)。
目前各国没有特别为了 AI/ML 技术的医疗器械创造新的法规上市途径,仍以现行的医疗器械法规框架进行管理。
在美国,医疗器械的监管由 FDA 负责,根据风险等级将其由低至高分为三类(Class I、II、III)。AI/ML 技术的医疗器械通常在现行的 Class II 和Class III 的法规下进行管理,这些器械的监管途径包括 510(k)和 PMA。对于 Class II 器械,制造商须证明其产品与市场上已有的医疗器械具有实质等同性(substantial equivalence),并通过 510(k)程序获得上市许可。Class III 器械则通常涉及支持或维持生命等高风险产品,因此须要进行全面的上市前核准程序,提交详细的临床试验数据以证明其安全性和有效性。
此外,对于新型且风险较低,无法与现有市场医疗器械有实质性等同的医疗器械,FDA 提供了另一种监管途径,即 De Novo 程序。这些医疗器械未必需要全套的 PMA 程序,但需要提交足够的数据证明其安全性和有效性。这种程序有助于快速引入创新技术,同时确保患者的安全。
在欧盟,医疗器械的管理架构与美国不同,并非由中央单一机构审核,而是以经认证的公告机构(notified body, 简称NB)进行合格评估后颁发 CE认证。对于医疗器械的管理也是以风险为基础,分为 Class I(低风险)、IIa、IIb(中等风险)和 III(高风险),除了非灭菌、不具量测功能或非重复使用 Class I 器械,制造商可申请自我宣告,自行负责确保产品符合法规之外,其余类别之器械皆须通过 NB 评估,获得 CE 认证方可上市。
美国监管情况
因应 AI/ML 技术医疗器械的急速发展,美国 FDA 提出对应的管理框架和指南。2019 年 4 月,FDA 发布「人工智能/机器学习算法之医疗器械软件(SaMD)变更管理架构」讨论文件。此变更管理架构考量到 AI/ML 技术的医疗器械软件相较传统器械更迭快速,如依循旧有管理框架,软件变更须向美国 FDA 申请变更核准后方能上市,不仅延后更新软件上市时程,亦造成主管机关的审查负担。因此在此份讨论文件中提出制造商可于医疗器械软件上市前审查阶段,一并提交「事先订定之变更控制计划(pre-determined change control plan,PCCP)」,预先订定 SaMD 变更范围
(pre-specification,SPS)及算法变更流程(algorithm change protocol,ACP)。
PCCP 计划透过「锁定」AI/ML 技术医疗器械的临床预期用途/适应症(intended use),制造商能够在进行必要的更新和重新训练后,确保性能符合要求。PCCP 经FDA 核准后,未来制造商可透过风险管理评估变更内容,并进一步判断该项变更是否超出先前核准的 PCCP 计划,来判断变更是否须进行新的 510(k)申请。
随后 FDA 在2021 年 1 月,推出「人工智能和机器学习软件作为医疗器械之行动计划」(Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan)。这份行动计划透过全产品生命周期(total product lifecycle,TPLC)方法,进一步说明 FDA 如何落实 AI/ML SaMD 的管理重点与具体行动,包含发布 PCCP、优良机器学习规范(Good Machine Learning Practices,GMLP)、提升 AI/ML 对使用者信息透明度等指引,提出消除机器学习算法偏差与改进算法的方法,以及真实世界性能监控试行计划等五大重点。美国 FDA 亦根据该行动计划发布多个指导文件。
2021 年 10 月发布了 GMLP 指导原则,强调了开发过程中的资料质量、透明度和模型性能的一致性,以及如何确保模型的可解释性和临床适用性。2023 年 10 月发布「机器学习医疗器械的预变更控制计划指导原则」,该指南使用 PCCP 概念,为制造商提供不重新提交审查的原则下,管理和实施机器学习模型变更的框架,FDA 允许在满足一定条件下,进行可预测且对患者安全有益的模型调整,以简化 AI/ML 医疗器械上市后持续学习和更新过程的管理程序,也确保变更过程中的透明度和可追溯性。
2024 年 6 月,美国 FDA 发布「机器学习医疗器械的透明度指导原则」,强调制造商应如何主动披露产品的设计决策、模型性能和潜在风险。包括如何向使用者说明 AI/ML 模型的运作原理、数据来源及模型变更的影响,并且建议制造商提供简单易懂的说明文件和教育训练材料,以增进使用者对 AI/ML 医疗器械的了解,减少由于信息不对称而产生的风险,并促进患者和医疗人员对这类新兴技术的接受度。
欧盟和英国
欧盟对于医疗器械管理,依循现有的MDR和IVDR法规。其中对于软件作为医疗器械可经由MDCG小组发布的相关指引,了解医疗器械软件的风险分类与法规要求。针对使用 AI/ML 技术的医疗器械软件,不像美国有另发布指南,而是在 2024年正式实施的《人工智能法案》(AI Act),建立了一个统一的法律监管框架,采用风险为基础的方式监管 AI 系统。在《人工智能法案》中,使用到 AI 技术的医疗器械,属于高风险类别,针对此类高风险 AI 系统,制造商须建立风险管理、资料治理、技术文件、保存系统日志、向使用者提供清楚充分的信息、人为监督,和系统准确性、稳健性与网络安全等以符合法律要求,同时该法案也对提供商与使用者提出相关的义务规范。因此,欧盟由指引或指导文件等软性的监管模式,转以具有法律约束力的立法方式来监管 AI 系统。
英国药品和医疗产品管理局(Medicines and Healthcare products Regulatory Agency,MHRA)在 2021 年 9 月启动了一项名为「软件和人工智能作为医疗器械变更计划(Software and AI as a Medical Device Change Programme)」 ,旨在解决与医疗软件相关的规范问题,确保能在保障患者与公众安全的同时,加速负责任的创新。该计划包括两大工作项目:第一个工作项目涵盖 SaMD 整个生命周期内的关键改革内容,此项目工作包括医疗器械软件的定义判定、风险分类、上市前、上市后市场监管与网络安全要求等多个部分。
第二个工作项目则考量 AI 对医疗器械可能带来的额外挑战,包含不断演进的 AI 算法、偏差以及 AI 解释性的问题。在第二个工作项目中,MHRA 基于美国 FDA 和加拿大健康部合作发布的 GMLP 基本原则。发布指导文件,帮助制造商将 GMLP 对接英国医疗器械法规(Medical Device Regulations 2002),与对应国际标准;制定补充指导文件,扩展 AI SaMD 的开发、部署与临床效能验证;并协助开发标准、工具,以识别和测量数据中的偏差,确保数据集在 AI 系统中具有代表性;同时亦将针对 AI SaMD 的透明度、可解释性与变更管理,提出相应的管理方式。
此外,MHRA 于 2024 年 5 月推出的一个专门针对人工智能作为医疗器械(AI as a Medical Device,AIaMD) 的新型监管沙盒计划。MHRA 将与英国国家医疗服务体系(National Health Service,NHS)AI 实验室及英国卫生社会关怀部(Department of Health and Social Care,DHSC)合作,透过模拟测试探索 4-6 个在线或真实世界医疗项目,以确保这些 AIaMD 在英国国家医疗服务体系中用于临床目的时的安全性和合规性。
现行法规的挑战
各国针对 AI/ML 技术医疗器械的法规日趋完善,涵盖从上市审查要求到变更管理等阶段,目的在于平衡创新技术的应用与产品的安全性及有效性。PCCP 作为一项因应AI/ML 技术医疗器械快速迭代的创新解决方案,虽展现了促进创新的潜力,但也伴随若干挑战。PCCP 仰赖厂商自主评估重新训练后软件的安全性与效能,然而,相较于药品管理,美国 FDA 从未将药品变更的评估完全交由制药商,因为药品的组成、制程的重大变更,可能导致性能发生重大变化,必须由主管机关严格把关。同样地,如果厂商在 PCCP 过程中出现错误或疏失,不论是有意或无意,都可能削弱临床医师、患者及监管/立法单位对该计划的信任,进而影响 PCCP 的推行效果。为了降低这类风险,推动更完善的上市后监督机制(post-market surveillance)是重要的一环。此举虽可检测并处理上市后 AI/ML 技术医疗器械的问题,但同时也意味着主管机关须要扩充其人力及资源,来执行上市后监督相关活动。因此主管机关和厂商如何持续优化与执行PCCP,且主管机关是否有充分资源来有效落实此计划及强化上市后的监测,后续值得关注。
此外,生成式 AI(Generative AI)是近年来新兴技术,并具有庞大的医疗应用潜力。相较于已批准的针对特定疾病或单一医疗任务的 AI/ML 医疗器械,生成式 AI 是多用途的,并非设计来针对单一的医疗目的,例如 GPT-4 此类大型语言模型,即使没有经过专门针对医疗讯息的预训练,在临床医疗领域内也能回答应对不同临床问题,如撰写临床文本、设计适性化健康计划,甚至协助医疗专业人员解答诊断问题。生成式 AI 学习、改进与演化的能力,也是其最具吸引力的特点之一,但在医疗应用中伴随着风险,例如模型性能可能不断变动;可能对同一问题生成不同回应,甚至会出现所谓的「幻觉」(hallucination),进而影响医疗决策的稳定性;企业常将生成式 AI 的模型细节及性能数据视为商业机密,导致外界无法全面了解其风险与局限;模型的训练数据若存在偏差(如特定族群的代表性不足或不均衡的治疗建议),可能对临床决策和医疗公平性造成不良影响;涉及病患资料的隐私与信息安全等议题。
这些生成式 AI 的特性,以现行侧重于以开发者声称模型适用于医疗用途的法规管理框架,可能无法全面应对这些新技术带来的挑战。许多文献针对在医疗应用上的大语言模型,建议主管机关须思考与探索新的审核程序,采取适应性强的监管措施,涵盖风险管理、模型透明性与可解释性要求、减少模型偏差、资料隐私与安全,及建立动态审查机制以持续监控模型效能与风险等考量重点。有专家学者建议应针对具高风险的应用进行监管,而非直接监管预训练模型,以确保监管资源能够聚焦在最具影响力的领域。
Blumenthal 与 Patel 两位专家学者认为生成式 AI 的临床应用应视为一种新的临床智慧,像管理临床医师或医事人员一样来监管这些技术,而非由传统医疗器械角度进行管理。现代社会已有一套对于医师或医事人员的管理方式,例如医师或医事人员必须完成规定的学位课程和见习训练、通过执照考试。基于这些训练,政府授权他们从事病患照护。此外,医师或医事人员通常须要进修教育,并且会受到其医疗服务质量的监控。如果未达到当地医疗标准,他们可能须承担法律责任;若涉入不当行为或因健康状况受损而无法妥善提供医疗服务,政府甚至可撤销其执照。因此这两位专家建议生成式 AI 可类比于「人类智慧的管理」: 透过规范化的训练,在通用或专科医疗应用上的信息进行特定训练,确保 AI具备足够的专业背景知识;让 AI 通过临床应用相关的测验,模拟医生或医事人员取得执照或专科证书的流程;在临床使用时,类似医学教育中的住院医师训练,由临床医师监督其输出与建议,并在必要时进行纠正;使 AI 持续整合最新的临床与科学信息,并接受定期再评估;最后定期向主管机关报告 AI 应用的医疗质量,若不符合标准须采取改善措施,并且将评估结果对外公开,促进透明度与信任。从这个新的视角出发,可以重新思考生成式 AI 的管理策略,探索更具适应性的监管方法。
来源:倍力法规咨询