您当前的位置:检测资讯 > 监管召回
嘉峪检测网 2018-06-06 12:20
MediCafe一句话点评:做AI医疗的朋友们好好读一下。
医疗AI产品监管的重中之重,是制定出一套科学、合理、明确的分类标准,明确各类产品的风险等级、入市的法律标准以及临床应用的技术要求。针对高风险的AI产品,应采取更加严格谨慎的标准,从而最大程度上降低其出现医疗事故的风险;针对低风险的AI产品,则应采取类似于上述预认证的监管模式,为相关产品和技术的快速发展和升级提供相对宽松的监管环境。
电影《超能陆战队》里呆萌可爱的医疗智能机器人大白(Baymax)在吸粉无数的同时,也使人们对医疗人工智能的发展充满了无限的期待和向往。
尽管目前的医疗AI产品尚不能同电影中的“大白”一样,通过一次简单地扫描,就可以检测出人体的健康指数,并且完全独立地根据病人的情况治疗几乎所有的疾病,但近年来,医疗人工智能的飞速发展正在使这些幻想一步步地成为现实。目前,人工智能在医疗领域的应用已经十分广泛,国内外已经或即将投入使用的医疗AI产品涵盖了疾病风险预测、医疗影像辅助诊断、临床辅助治疗、智能健康管理和医院智能管理等众多领域。
互联网医疗健康产业联盟发布的《医疗人工智能技术与应用白皮书(2018)》显示,到2025年人工智能应用市场总值将达到1270亿美元,其中医疗行业将占市场规模的五分之一。我国医疗人工智能的市场规模更是发展迅速,2016年中国人工智能+医疗市场规模达到96.61 亿元,增长37.9%;2018年有望达到200亿元,增长超过一倍。
此外,国务院办公厅近期印发的《关于促进“互联网+医疗健康”发展的意见》中,亦进一步明确了推进“互联网+”人工智能应用服务的要求,鼓励研发基于人工智能的临床诊疗决策支持系统和其他医疗健康智能设备,为医疗人工智能的发展提供了更清晰的政策指导和支持。
不可否认的是,医疗人工智能技术的快速发展对于提高诊断效率,弥补医生资源缺口,提升医疗服务水平都将起到巨大的推动作用。但相对于其他领域的AI产品,在医疗人工智能领域,尤其是在医疗辅助诊断和治疗领域,AI产品将对医生的诊断和决策产生一定的导向作用,一旦出现失误则很有可能严重危及患者的生命健康。因此,必须完善对AI辅助诊断和治疗产品的监管机制,明确医疗AI产品进入临床应用的法律标准和技术要求,同时明确AI诊断的医疗责任主体、划清权责范围。
完善AI辅助诊断、治疗产品监管机制,关键是分类标准制定。
目前,世界各主要国家几乎都将AI辅助诊断和治疗产品作为医疗器械加以监管,AI辅助诊断和治疗产品如需上市,必须根据医疗器械的等级分类标准获得监管部门相应的许可和认证。在我国,监管部门对于利用人工智能技术提供诊断功能的审核要求非常严格。根据2017年国家药品监督管理局(CFDA)发布的新版《医疗器械分类目录》(该分类政策将于2018年8月1日起正式施行),若诊断软件通过其算法提供诊断建议,仅有辅助诊断功能不直接给出诊断结论,则按照二类医疗器械申报认证;如果对病变部位进行自动识别并提供明确诊断提示,则必须按照第三类医疗器械进行临床试验认证管理。此外,国家卫生计生委于2017年2月发布的《人工智能辅助诊断技术管理规范(2017年版)》和《人工智能辅助治疗技术管理体系规范(2017年版)》还对医疗机构及其医务人员应用AI辅助诊断和治疗技术提出了极具操作性的要求,具体包括医疗机构的硬件设施、医务人员的资质要求以及技术管理和培训管理制度等。
在美国,根据医疗器械存在的风险程度,医疗器械同样被划分为三类,其中Class III为具有高风险的医疗器械,具体指拟用于支持或维持人类生命或预防人类健康受损,或可能导致潜在的不合理的疾病或伤害风险的医疗器械。根据美国联邦法律,III类设备除需进行一般监管外,还需进行上市前审批(PMA)。近日,FDA即通过PMA程序首次批准上市了一款医疗AI产品,根据FDA发布的公告,该设备是一种可用于筛查糖尿病性视网膜病变的软件程序,无需临床医生分析就能给出诊断结果。可见,美国亦将此类能够提供明确诊断结果的AI辅助诊断产品视为具有最高风险等级的医疗器械加以监管。
除了采用上述传统的监管方式外,美国FDA还于去年8月开创了一种针对低风险医疗AI产品的全新监管方式——“数字医疗软件预认证计划”(Software Precertification Pilot Program)。根据该计划,FDA选择了包括苹果、三星电子、强生等9家数字医疗企业共同参与于去年9月1日开始实施的预认证计划试点项目。在该试点项目结束后,FDA旗下专门负责医疗设备及科技监管的机构CDRH将根据在上述试点项目中确定的客观标准来“预先认证”那些符合资格的数字医疗开发主体。经过预认证的开发主体即有资格直接销售自己的低风险医疗AI产品,而无需经过FDA的额外审查和一系列入市审查。
FDA的此种监管方式打破了传统的针对医疗产品的监管模式,而是将监管重点放在了开发和生产产品的企业身上,这无疑将大大提高医疗AI设备的审批速度,有利于医疗领域人工智能新设备和新技术的快速发展和迭代更替。但值得注意的是,此种预认证计划仅适用于风险较低的医疗AI产品,对于具有较高风险的AI辅助诊断和治疗产品似乎并不适合。
综上,医疗AI产品监管的重中之重,是制定出一套科学、合理、明确的分类标准,明确各类产品的风险等级、入市的法律标准以及临床应用的技术要求。针对高风险的AI产品,应采取更加严格谨慎的标准,从而最大程度上降低其出现医疗事故的风险;针对低风险的AI产品,则应采取类似于上述预认证的监管模式,为相关产品和技术的快速发展和升级提供相对宽松的监管环境。至于医疗AI产品风险等级的划分依据,则应当综合考虑其处理对象(如:癌症、恶性肿瘤等疾病的影像)的严重程度、所需数据标准化程度以及所采用算法的成熟程度和公开程度。
明确AI辅助诊断及治疗的医疗责任主体、划清权责范围
针对医疗人工智能的监管,除了要在事前审批和日常监管上下文章外,明确AI辅助诊断和治疗的医疗责任主体、划清各方的权责范围同样至关重要。目前,我国侵权责任法对传统的医疗器械造成损害的责任承担问题进行了比较明确的规定,即由缺陷医疗器械的生产者和医疗机构承担不真正连带责任,被侵权人既可以选择向缺陷医疗器械的生产者,也可以选择向医疗机构请求损害赔偿,如果医疗机构先行承担了赔付责任,则其有权向负有责任的生产者追偿。然而,采取此种责任划分方式的前提,是能够比较明确地厘清造成医疗事故的主要原因是医疗器械的缺陷还是医生的诊断失误。
与传统医疗器械不同,AI辅助诊断和治疗产品往往会通过一定的算法抽取和分析海量的病历与文献数据,并在此基础上形成病情评估、诊疗建议、药物禁忌等结论,从而为医生的临床决策提供支持。但是由于“技术黑箱”的存在,包括使用AI辅助诊断产品的医生在内的所有人,都无从知晓算法究竟为何抓取这些文献、如何提取不同的诊疗方案以及如何对不同的诊疗方案作出评价并选出最优方案。因此,当医生因使用AI辅助诊断和治疗产品而造成医疗事故时,外界将很难认定和判断其责任归属,而这就使得传统医疗器械造成损害的归责方式在医疗人工智能领域难以适用。
而要破解这一难题,一方面需要AI技术的不断提升以进一步增强算法的透明度或可解释性,另一方面则需要在立法层面上构建起合理的AI产品致人损害的责任分担方式,从而在保障被侵权人的合法权益和鼓励医疗AI产品的开发与应用之间取得平衡。对此,可以考虑由医生(医疗机构)对AI辅助诊断和治疗产品引发的医疗事故承担首要责任,这是因为根据前述国家卫生计生委员会发布的两份关于医疗人工智能的技术规范,尽管AI辅助诊断和治疗产品可以为医生的决策提供建议,但其仅具有辅助性的地位,最终的决策必须由具有医师资质和一定经验的医生作出,因此由医生(医疗机构)承担医疗责任并无不公。
当然,如果医疗机构能够证明AI辅助诊断和治疗产品对医生的决策失误产生了关键作用(例如AI产品提供的医学影像错误等),则可以要求AI产品的生产者承担相应的责任。此外,由于此种责任分担方式为医疗机构设置了较重的责任,很有可能会给AI辅助诊断和治疗产品进入临床应用带来巨大的阻碍,因而可以考虑引入针对AI产品的强制责任保险制度,强制要求AI产品的生产者为具有较高风险的AI辅助诊断和治疗产品投保,从而分担AI产品的风险,进一步激发医疗机构使用AI辅助诊断和治疗产品的积极性。
人工智能的发展与创新,正在使人们的生产和生活方式发生剧变,而针对人工智能产品的监管思路和方式也必须相应地作出改变。针对医疗人工智能的监管更要兼顾医疗行业和人工智能两者的特殊性,创新监管方式,进一步促进医疗行业的智能化和人工智能应用的多元化。
来源:AnyTesting