您当前的位置:检测资讯 > 科研开发

人工智能医疗器械在卒中诊疗中的伦理探讨

嘉峪检测网        2022-08-15 13:52

AI

 

人工智能(artificial intelligence,AI)在医疗领域的快速发展,给人类带来了优质、高效的医疗服务,显著提高了疾病的诊疗效率,并不断改变着医疗模式。随着AI医疗器械技术的迅速发展,其在卒中诊疗中的应用越来越广泛,有研究显示AI医疗器械的应用可以显著提高卒中的诊断效率,并可根据患者的基本信息、病史、各种辅助检查结果等快速优化治疗策略,从而改善患者预后。

 

AI医疗器械为卒中诊疗带来了速度与疗效提升的同时,也带来了一些潜在的伦理问题。本文将从隐私安全性、数据全面性、算法科学性、诊断准确性、责任主体划分以及对特殊人群知情同意等伦理问题进行探讨分析,确保AI医疗器械在卒中诊疗中能够以符合伦理的方式更好地发挥作用。

 

1 AI医疗器械在卒中诊疗中潜在的伦理问题

 

1.1卒中患者的知情同意卒中患者由于发病急、进展迅速,可能出现意识障碍或认知改变等疾病特殊性,使得患者本人难以亲自签署知情同意,通常只能由家属代理,但是具体什么情况需要代理,应该由哪些人代理,目前尚无明确规定。

 

Zier等的研究发现,即便是非常了解患者的家属也很难准确把握患者的真正意愿。此外,在AI医疗器械诊疗过程中可能发现预期之外的其它病变,何时、以何种方式将这些病变告知患者,需要综合评估患者的健康状况,不宜以机械的方式直接告知,这也是AI可以辅助临床,但不能替代医师的原因之一。

 

1.2隐私安全性 卒中AI医疗器械与其它AI医疗器械在隐私信息安全性方面存在共性,二者在研发和临床应用过程中会采集大量的患者信息,包括年龄、性别、联系方式、住址等基本信息,也包括疾病病史、诊疗记录、化验检查结果、影像数据等健康信息。这些具有高度的个人化且敏感的患者隐私信息一旦泄露,造成的损害是非常严重的。AI训练需要使用广泛数据,因此会存在潜在的隐私安全性问题。虽然目前有研究者提出对要使用以及训练的数据进行完全匿名化来规避这种隐私泄露的风险,但目前我国AI医疗器械研发过程中对患者个人信息匿名化的保护机制尚不完善,因此需要通过 建立具体匿名化准则以提高隐私安全性。

 

1.3数据全面性数据的全面性是保证AI医疗器械诊断、决策准确的重要前提。卒中AI医疗器械较其他AI医疗器械在数据全面性方面有更高的要求。因为脑部神经、血管网络结构复杂,所以卒中患者临床表现复杂多样,这就要求在建立AI学习数据库时纳入尽可能多的病例,包括不同的年龄、性别、病变部位、症状体征和治疗转归等信息充分考虑群体差异化诉求,以降低数据偏倚。偏倚的数据不能代表人群的 整体特点,因此必然会导致诊断的准确性降低。此外,偏倚数据会进一步引起统计分析数据的相关步骤随之发生变化,从而产生更难以预 测的深远影响。因此,数据全面性也应该作为伦理审查关注的重点之一,以保证AI医疗器械 在临床应用过程中的安全、准确。

 

1.4算法科学性 算法科学性对AI医疗器械诊断的准确性非常重要,是伦理审查中核心问题之一。如果算法上出现差错,非但不能提高疾病诊断效率,反而会造成误诊,延误治疗。因此,保证算法的科学性对AI医疗器械后续在临床诊疗中的应用至关重要。目前AI医疗器械的算法问题是伦理审查的薄弱环节,方案中对具体算法描述一般也较少,且专业性强,现有的医学伦理委员会的委员在审查过程中很难发现算法上的问题。针对此类问题如何能充分保障受试者权益,保证算法上的绝对准确,同样是该领域面临的重大挑战。

 

1.5 诊断准确性与责任主体划分 AI医疗器械 诊断的准确性依赖于数据的全面性和算法的科学性,只有这两方面均得到保证,诊断的准确性才会随之提高。此外,诊断的准确性还与应用环境、操作方法有关,环境不当或操作有误均会导致AI医疗器械诊断的准确性降低。针对由于AI医疗器械诊断准确性降低导致误诊的情况,其责任主体是AI医疗器械企业还是临床应用者,二者的责任该如何划分也是需要进一步讨论并明确的问题。

 

2 应对AI医疗器械在卒中诊疗中伦理问题的对策

 

2.1 临床试验伦理审查阶段的对策

 

2.1.1 构建完善的伦理审查规范AI医疗器械的伦理审查亟待构建完善的规范。目前国内外应用较广泛的AI伦理共识包括阿西洛马AI原则和国际电气电子工程师学会发布的AI设计的伦理准则。我国关于AI伦理的建设正处于不断发展和完善的阶段,2017年中华人民共和国中央人民政府国务院印发的《新一代人 工智能发展规划》对AI的伦理规范建设提出了明确的要求并计划于2030年建成完善的伦理规范。2021年9月科技部《新一代人工智能伦理规范》的落地为AI领域的工作者提供了清晰的伦理指引,也为AI医疗器械伦理审查规范的构建垫下了根基。AI医疗器械的伦理审查规范应基于AI伦理规范,但又具有医疗器械伦 理审查的特点,指导医学伦理委员会进行此类项目的伦理审查,充分发挥伦理审查作用,对此类AI医疗器械开展严格的临床试验前伦理审查。

 

2.1.2 明确知情代理人身份和职责卒中患者的意识、认知改变会影响其亲自签署知情同意,所以通常由家属代理。然而,患者本人的意愿才是知情同意的根本,对于意识、认知水平尚可的患者最好由本人签署知情同意。因此在签署知情同意前如果能通过简易的量表对患者的意识和认知水平进行评估分类,便可协助区分哪些患者可以亲自签署知情同意,哪些需要家属代理。对于需要家属代理的患者,以与患者关系最密切的直系亲属为首选,这样虽然不能完全与患者意愿一致,但可以尽可能接近其意愿。

 

2.1.3 聘请计算机科学独立顾问目前医学伦理委员会委员多由医药专家、法律专家和社会人士等构成。由于委员团队结构中缺少AI算法、统计、信息安全领域的专家,而这些领域具有明显专业特色,所以目前医学伦理委员的构成可能难以发现这些方面的潜在伦理问题。伴随着AI医疗器械临床试验越来越多,医学伦理委员会可考虑聘请AI算法、统计、信息安全领域的专家对此类临床试验的算法科学性、数据全面性以及隐私安全性进行伦理把关,以填补伦理审查过程中这部分的空白。通过聘请计算机专业独立顾问,委员专业覆盖面更全面,审查效能也会随之提升。

 

2.2 临床应用阶段的对策

 

2.2.1 建立问责机制 AI医疗器械在临床应用 过程中可能会由于器械产品本身或应用不当导致问题,需要建立AI医疗器械问责机制,完善AI定责的法律法规,对问题出现后主体责任划 分问题进行界定,使得相关责任方承担起相应的责任。在设计、制造、使用AI全生命周期过程中做到公开透明、可追溯。一旦发生事故,可以追溯事故发生的原因出现于哪个环节,从而协助划分责任主体,包括所有相关活动的人员或机构,由不同责任主体承担不同的责任,避免单一责任制,全面增强责任意识。

 

2.2.2 专业培训与伦理教育 AI医疗器械的定位是辅助临床进行诊疗活动,不能完全代替临床医师,其操作需要临床医师参与。正确的应用AI医疗器械才能保证诊断的准确性,所以需要对应用者进行严格的培训并进行相应的考核,以最大限度地减少由于应用不当导致诊断延误的可能性。同时还要加强伦理方面培训,充分认识AI医疗器械可能出现的伦理问题,既不低估也不夸大风险,综合完善应用者的培养机制,提高应对能力,确保AI医疗器械在卒中诊疗过程中的顺利应用。

 

3 结语

 

综上所述,在卒中AI医疗器械诊疗领域不断发展的过程中,应尽可能做到有效评估隐私安全性、算法科学性、诊断准确性和主体责任划分等伦理问题,充分保障患者的安全与权益。针对卒中患者的知情问题,准确恰当地进行代理人知情。此外,由于脑部解剖和功能的复杂性,对建立AI医疗器械数据的全面性同样提出了更高的要求。避免上述问题带来风险的同时,不断寻求解决策略,构建完善的伦理审查规范及监管法规,最终实现AI医疗器械在卒中诊疗领域的健康发展,确保AI医疗器械能够带来广泛的社会利益。

 
分享到:

来源:中国卒中杂志