您当前的位置:检测资讯 > 法规标准
嘉峪检测网 2024-12-23 09:09
欧盟人工智能法案是一项具有里程碑意义的法规,代表着人工智能技术的法律治理迈出了重要一步。该法案由欧盟委员会于2021年4月提出,并于2023年12月获得欧洲议会和欧洲理事会的同意,于2024年3月13日获得批准,并于2024年8月1日生效。
尽管被贴上“法案”的标签,但事实上,它是一项欧盟法规(法规EU 2024/1689)。该法案旨在解决公民健康、安全和基本权利的潜在风险,促进欧盟负责任的人工智能开发和部署。它为开发者和部署者提供了关于AI特定用途的明确要求和义务,同时减轻了企业的管理和财务负担。
AI法案在所有欧盟国家引入了一个统一的框架,基于AI的前瞻性定义和基于风险的方法:
最小风险 Minimal risk:
大多数人工智能系统,如垃圾邮件过滤器和人工智能视频游戏,在人工智能法案下都没有义务,但公司可以自愿采用额外的行为准则。
特定的透明度风险Specific transparency risk :
聊天机器人等系统必须明确告知用户,他们正在与一台机器互动,而某些人工智能生成的内容必须贴上标签。
高风险 High risk:
基于人工智能的医疗软件或用于招聘的人工智能系统等高风险人工智能系统必须符合严格的要求,包括风险缓解系统、高质量的数据集、清晰的用户信息、人工监督等。
不可接受的风险 Unacceptable risk:
例如,允许政府或公司进行“社会评分”的AI系统被认为是对人的基本权利的明显威胁,因此被禁止。
分阶段实施时间表:
• 2025年2月2日:一般规定和禁令规定开始适用。
• 2025年8月2日:关于政府当局架构和公告机构规定、通用AI模型提供者的规定、相关责罚开始适用。
• 2026年8月2日:大部分条款开始普遍适用,包括对高风险AI系统的一些义务,但一些义务将从2027年8月2日起适用。
• 2027年8月2日:高风险AI系统的一些义务开始适用,特别是那些受其他欧盟立法监管的产品的安全组件。
对于数字医疗产品,重点主要是高风险人工智能系统,包括受欧盟MDR/IVDR管制的医疗设备中使用的系统。
对高风险人工智能系统的要求:
这些包括严格的合规义务,如风险管理、数据治理、透明度和人工监督。属于高风险人工智能系统的数字医疗产品必须遵守这些要求。
适用性和地域范围:
《人工智能法》适用于将人工智能系统投放到欧盟市场的提供商、欧盟内部的用户以及外部提供商/用户(如果他们的人工智能系统产品在欧盟使用)。这种域外延伸类似于GDPR。
事件报告和上市后监控:
高风险人工智能系统(包括医疗产品中使用的系统)的开发商必须建立严重事件报告系统,并进行持续的上市后监控。
高风险人工智能系统的技术文档:
要求提供的技术文档非常全面,比美国FDA批准AI/ML医疗器械所需的文件要多得多,尤其是那些通过510(k)或Novo pathways批准的中度风险医疗器械。
技术文档包括人工智能系统元素的详细描述及其开发过程,包括:
*设计规范;
*系统架构;
*关键设计选择及其基本原理和假设;
*数据要求;
*培训方法;
*用于开发、训练和验证人工智能系统的计算资源;
*验证和测试程序;和
*性能指标。
因此,包含人工智能系统的受监管数字医疗产品除了提供欧盟MDR/IVD技术文档外,还需要提供人工智能系统所需的附录IV技术文档。
因此,我们预计医疗器械制造商将依据第11(2)条,利用其受管制产品的欧盟MDR/IVDR技术文件系统,并通过附加附录IV信息来扩展AI系统或子系统的文件。一个担忧是,人工智能系统的高门槛文件要求可能对新进入者不利。《欧盟人工智能法案》试图通过让中小企业(包括初创企业)提供简化的技术文件来解决这一问题,该技术文件仍有待欧盟委员会制定,旨在满足小型和微型企业的需求。
来源:医疗器械法规资讯