NISTのAIRCのAIリスク管理フレームワーク(RMF)1.0とは何か
AIリスク管理フレームワーク(RMF)1.0とは、以下のとおり書かれている。
訳せば、「2020年国家人工知能イニシアチブ法(P.L. 116-283)の指示に従い、AI RMFの目標は、AIシステムを設計、開発、配備、または使用する組織にリソースを提供し、AIの多くのリスクを管理し、信頼できる責任あるAIシステムの開発と使用を促進することである。このフレームワークは、自主的で、権利を保持し、セクターを特定せず、ユースケースにとらわれないことを意図しており、あらゆる規模の、あらゆるセクターの、そして社会全体の組織に、フレームワークのアプローチを実施する柔軟性を提供する。」
となっており、AIRMFは常に段階的に、アップデートされることになる。また、構成は二つ(①②)に分けれる。
「①第1部では、組織がAIに関連するリスクをどのようにフレームワーク化できるかを議論し、対象読者について説明する。次に、AIのリスクと信頼性について分析し、信頼できるAIシステムの特徴を概説する。この特徴には、妥当性と信頼性、安全性、安全性と弾力性、説明可能性と透明性、説明可能性と解釈可能性、プライバシーの強化、有害なバイアスを考慮した公正な管理などが含まれる。」
「②第2部はフレームワークの "核 "となる部分である。このフレームワークには、組織がAIシステムのリスクに実際に対処するための4つの具体的な機能が記述されている。4つの具体的な機能が記述されている。これらの機能(GOVERN、 MAP」、「MEASURE」、「MANAGE」の4つの機能は、さらにカテゴリーとサブカテゴリーに分類されている。GOVERNは、組織のAIリスク管理プロセスや手順のすべての段階に適用されるが、MAP、MEASURE、MANAGEの各機能は、AIシステム固有の文脈や特定の段階で適用することができる。システム特有の文脈やAIライフサイクルの特定の段階で適用することができる。」
といった内容になっている。より詳細は、以下から見れる。興味ある方はぜひ。
Artificial Intelligence Risk Management Framework (AI RMF 1.0) (nist.gov)
この記事が気に入ったらサポートをしてみませんか?