您当前的位置:检测资讯 > 法规标准

EU AI Act与ISO/IEC 42001对比

嘉峪检测网        2025-03-12 13:38

EU AI Act制定了在欧洲经济区内管理人工智能系统开发、部署和使用的全面规则。其核心要求侧重于确保人工智能产品的透明度、安全性和道德性,同时应对基本权利面临的风险。

 

ISO/IEC 42001 提供了一个结构化的人工智能管理系统框架,支持关键领域的合规性,从而补充了这些目标。

 

 

EU  AI Act 欧盟AI法案

ISO/IEC  42001 AI管理体系

基于风险的分类

将人工智能系统分为高风险、有限风险和最低风险类别,并对高风险系统提出更严格的要求。

提供识别、评估和管理人工智能系统相关风险的方法,确保符合该法案的基于风险的方法。

透明度和文件

要求提供详细的技术文档和日志功能,以实现可追溯性。

指导企业创建和控制文档信息,确保整个人工智能生命周期的透明度和可审计性。

道德和以人为本的设计

优先考虑人类监督、公平性和避免歧视。

包括处理人工智能系统中道德因素、公平性和可信度的控制措施。

持续监控和改进

要求对已部署的人工智能系统进行持续监控和风险管理。

强调持续改进和内部审计,以适应不断变化的风险和合规需求。

分享到:

来源:MDR小能手