华盛顿——辖属美国商务部的国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》(AI RMF 1.0),这是一份指导性文件,供设计、开发、部署或使用人工智能系统的组织自愿使用,以帮助管理人工智能技术带来的诸多风险。
图片来源:N. Hanacek/NIST
《人工智能风险管理框架》遵循了美国国会要求NIST制定框架的指示,在与私营和公共部门的紧密合作下共同制定。随着技术的不断发展,框架旨在适应人工智能的发展,以供各组织在不同程度和能力上使用,以便社会能够从人工智能技术中受益,同时避免其潜在危害。
“这一自愿性框架将有助于开发和部署人工智能技术,使美国、其他国家和组织能够加强人工智能的可信度,同时根据我们的民主价值观管理风险,”美国商务部副部长Don Graves说,“该框架应该加速人工智能的创新和增长,同时促进,而不是限制或损害,所有人的公民权利、公民自由和平等。”
与传统软件相比,人工智能带来了一些不同的风险。人工智能系统是在数据的基础上进行训练的,而这些数据会随着时间的推移而发生变化,有时会发生意想不到的重大变化,以我们难以理解的方式影响系统。这些系统在本质上也是“社会技术性”的,意味着它们会受到社会动态和人类行为的影响。人工智能风险可能来自这些技术和社会因素的复杂相互作用,这些风险影响了人们的生活,从与在线聊天机器人的体验到工作和贷款申请的结果。
这个框架使各组织有能力以不同的方式思考人工智能及其风险。它推动了机构文化的变革,鼓励各组织以新的视角看待人工智能——包括如何思考、沟通、衡量、监测人工智能风险及其潜在的积极和消极影响。
《人工智能风险管理框架》提供了一个灵活的、结构化的、可衡量的流程,使各组织能够应对人工智能风险。遵循这一流程来管理人工智能风险可以最大限度地发挥人工智能技术的效益,同时降低人工智能对个人、群体、社区、组织和社会产生负面影响的可能性。
负责标准与技术的商务部副部长、NIST院长Laurie E. Locascio表示,该框架是NIST培养对人工智能技术的信任的工作的一部分,如果该技术要被社会广泛接受,这是必要的。
“《人工智能风险管理框架》可以帮助任何行业和任何规模的公司和其他组织启动或加强人工智能风险管理方法,”Locascio说。“它提供了一种新的方式来把负责任的做法和可操作的指导结合起来,从而使人工智能值得信赖,且能负责任的运作。我们期望《人工智能风险管理框架》能够帮助推动最佳实践和标准的制定。”
《人工智能风险管理框架》分为两部分。第一部分讨论了组织如何确定与人工智能相关的风险,并概述了值得信赖的人工智能系统的特征。第二部分是框架的核心,描述了四个具体的功能——治理、了解情况、测量和管理,以帮助组织在实践中应对人工智能系统的风险。这些功能可以应用于特定环境下的使用案例和人工智能生命周期的任何阶段。
通过与私营和公共部门的密切合作,NIST花了18个月时间制定了《人工智能风险管理框架》。该文件体现了NIST从240多个不同组织收到的关于该框架草案的大约400条正式意见。NIST今天发布了一些组织的声明,他们已经承诺使用或推广该框架。
NIST今天还发布了一份配套的自愿性《人工智能风险管理框架》操作手册,其中建议了有关浏览和使用该框架的方法。
NIST计划与人工智能业界合作,定期更新该框架,并欢迎在任何时候对该操作手册提出补充和改进建议。2023年2月底前收到的意见将被纳入2023年春季发布的更新版操作手册中。
此外,NIST计划启动一个值得信赖和可靠的人工智能资源中心,帮助各组织将《人工智能风险管理框架》1.0版付诸实践。NIST鼓励各组织发表简述,分享他们如何在其特定情况下使用该工具的经验。投稿可发送至:AIFramework@nist.gov。
NIST致力于继续与公司、社会团体、政府机构、大学和其他机构合作,制定更多的指导原则。NIST于今日发布了这项工作的路线图。
这个框架是NIST广泛且不断增长的人工智能相关工作的一部分,这些工作包括基础和应用研究,重点关注测量和评估、技术标准以及对人工智能政策的推动。