您当前的位置:检测资讯 > 法规标准

首个人工智能管理系统标准ISO/IEC 42001:2023要求概述

嘉峪检测网        2025-03-24 08:48

随着人工智能(AI)越来越多地融入商业运营,道德问题、监管合规性和风险管理变得越来越突出。由国际标准化组织(ISO)和国际电工委员会(IEC)制定的ISO/IEC 42001:2023标准建立了人工智能治理的框架。这是全球首个人工智能管理体系标准。

 

ISO/IEC 42001 标准概述

ISO/IEC 42001 是一项国际标准,它规定了在组织内部建立、实施、维持以及持续改进人工智能管理系统(AIMS)的要求。该标准的适用对象为提供或使用基于人工智能的产品或服务的实体,满足该标准可以确保这些实体负责任地开发和使用人工智能系统。

 

ISO/IEC 42001针对人工智能所带来的独特挑战,如伦理考量、透明度以及持续学习等方面提出了要求。

 

ISO/IEC 42001的关键要求

 

1、组织的环境

 

1) 识别影响人工智能管理的内部和外部因素;

 

2) 确定人工智能治理的范围;

 

3) 认识利益相关者及其期望。

 

2、领导力和承诺

 

1) 建立人工智能治理策略;

 

2) 确保与组织目标保持一致;

 

3) 为人工智能监督分配角色和职责。

 

3、人工智能风险管理

 

1)进行人工智能特有的风险评估;

 

2)解决道德问题、网络安全风险和法规符合性挑战;

 

3)实施记录在案的风险处理计划。

 

4、人工智能系统影响评估

 

1)评估人工智能对个人、社会和企业的影响;

 

2)识别潜在的偏见和公平问题;

 

3)记录缓解策略。

 

5、数据管理和质量保证

 

1)确保人工智能训练数据可靠、公正、合法;

 

2)管理数据来源和加工流转路径;

 

3)实施持续人工智能监控流程。

 

6、性能监测和持续改进

 

1)建立人工智能有效性的关键性能指标;

 

2)为合规性验证进行内部审核;

 

3)使人工智能治理策略适应不断发展的风险和法规。

 

实施ISO/IEC 42001的步骤

 

为了成功实施ISO/IEC 42001,组织应:

 

1、进行准备情况评估: 评估当前的人工智能政策和治理框架。

 

2、定义AI管理范围: 确定哪些AI系统和流程需要遵从。

 

3、制定人工智能政策和风险管理计划:建立符合ISO/IEC 42001要求的指导方针。

 

4、培训员工: 确保员工理解他们在AI治理中的角色。

 

5、监控和改进: 定期检查AI性能,并根据需要调整治理策略。

 

此外,国际标准化组织(ISO)制定了多项标准,旨在降低人工智能带来的风险并最大限度地发挥其带来的益处,其中包括:

 

* ISO/IEC 22989:  确立了人工智能的术语,并对人工智能领域的概念进行了描述;

 

* ISO/IEC 23053:确立了一个用于描述使用机器学习技术的通用人工智能系统的 AI 和机器学习(ML)框架;

 

* ISO/IEC 23894:提供了有关人工智能相关风险管理的指导。

分享到:

来源:医疗器械法规资讯