【実践AIガバナンス(2024/3/20)】シン・リスクチェーンモデルのアプローチ解説
今回から特定目的AIサービスにおけるリスクマネジメントのケース検討をデジタルMATSUMOTOと一緒に進めてみようと思います。
ちなみに特定目的AIサービスについては前回の記事を参考にしていただければと思います。
リスクチェーンモデルのリファイン
ベースとなっているのは、東京大学未来ビジョン研究センターで開発された特定目的AIサービスを対象とした「リスクチェーンモデル」というフレームワークです。
※ 元のアプローチについては、以下のWebサイトに解説動画・ガイドブック・ケース事例があるのでこちらをご覧ください。
これまで4年近くリスクチェーンモデルを使って、様々な企業・専門家・研究者等の方々に御協力をいただき、多くのケース検討を重ねてきたのですが、正しく活用していくためには以下のような課題が見つかってきました。
もちろんこの2つの課題に対応すれば、全てのリスクを完全にゼロにできるというわけではないのですが、以下の2点でアプローチをアップデートして、より実践に向けた検討アプローチとして改善してます。
学術的に新しいアプローチというわけではないのですが、よりAIガバナンスの実践に向けたアプローチにすること(学会で発表するとかよりは、AIサービスを現場で運用している方々に使ってもらうこと)を重視して改良を検討しています。
課題A.へのアプローチ「パーパスモデルの導入」
『課題A. リスクの話以前に「何のためにそのAIサービスを開発するのか」というパーパス(目的)の検討を十分に行う必要がある』に対しては、吉備友里恵さん・近藤哲郎さんが開発された「パーパスモデル」を採用することとしました。
パーパスモデルは、DXに限らず様々なマルチステークホルダーでの共創プロジェクトにおいて、各ステークホルダーが抱えるパーパスを1つのサークルに可視化することで相互理解を促進することを狙いとしたフレームワークです。
1つのAIサービスでも「ステークホルダーによって期待するパーパスが異なるのではないか」という点はリスクチェーンモデルを使いながらも感じていたのですが、ありがたいことに吉備さん・近藤さん御本人からも教えていただきまして、新たなアプローチとして活用させていただきました。
課題B.へのアプローチ「AIによる検討シミュレーション」
『課題B. ステークホルダー・リスクシナリオ・リスクチェーン等の検討が属人化してしまっており網羅性を上げる必要がある』に対しては、AIと対話しながら検討することで、特に「ステークホルダーの識別」「リスクシナリオの識別」「アプローチの識別」等の網羅性を確保しようとしています。
ちなみに通常のChatGPTでも、それっぽい検討はできるかもしれませんが、せっかくデジタルMATSUMOTOにAI関係で考察した知識を反映させていますので、デジタルMATSUMOTOと対話しながら検討を進めてみようと思います。(独自の生成AIを開発している企業の方は是非自社でも試していただければなんて考えています。)
このnoteで紹介するケース検討の結果も、デジタルMATSUMOTOの新たな知識情報に加えていく予定です。
シン・リスクチェーンモデルのアプローチ
上記の2点を反映して、以下のようにアプローチを再構成しました。
シチュエーションとしては、AIのPoCが完了して具体的なAIサービスの企画を検討している段階を想定していただければと思います。
パーパスアセスメント
最初のフェーズでは「AIサービスに対して各ステークホルダーが抱くパーパスを具体化すること」を以下のステップで進めていくのですが、この段階でまずパーパスモデルを作成します。
Step1. ケース情報の整理
Step2. AIサービスに関わるステークホルダーの識別
Step3. 各ステークホルダーがAIサービスに対して抱くパーパスの定義
リスクアセスメント
このフェーズでは「AIサービスに関わる重要なリスクシナリオ」を識別していきます。
ここでは、先程のフェーズで識別したステークホルダーとパーパスを踏まえることが重要なポイントです。
「そのリスクは誰&何にとって重要なのか」を明確にするという狙いです。
Step4. パーパスの実現を阻害するリスクシナリオの識別
Step5. リスクシナリオの評価(ステークホルダーへの影響や重要度)
まずはリスクシナリオを網羅的に識別していきます。
この時に影響するパーパスとステークホルダーを明確にすることも「何故そのリスクシナリオが重要なのか」を説明する上で重要です。
従来のリスクチェーンモデルでは各リスクシナリオの影響評価を行っていなかったのですが、シン・リスクチェーンモデルでは以下4つの項目で評価を行っています。
・影響度: 1.不便さ, 2.利用離れ, 3.損害あり, 4.回復困難, 5.回復不可
・影響範囲: 1.内部限定, 2.内部広範, 3.外部含む, 4.社会全体
・持続性:1.瞬間的, 2.一日以上, 3.一月以上, 4.永久的
・発生確率:1.月次以下, 2.週次以下, 3.日次以下(不確実), 4.日次多発
4つのパラメータをリスク初期値(リスクスコア)を積算して、優先度を以下のように設定しています。
最終的には人間の判断でカテゴリを見直ししています。
- Very High(VH):リスクスコア100以上
- High(H):リスクスコア60以上100未満
- Middle(M):リスクスコア30以上60未満
- Low(L):リスクスコア30未満
コントロールコーディネーション
先程のフェーズで識別したリスクシナリオ毎にリスクチェーン(リスク要因の関係性)を検討し、技術/非技術のアプローチを組合わせた分散型のリスク対策を具体化していきます。
元々リスクチェーンモデルを検討した際に「AIサービスのリスクマネジメントがAI開発者依存にならないこと」という問題意識がありまして、AI開発者/サービス提供者/利用者が連携してリスク対策を分散するという狙いがあります。
Step6. 重要なリスクシナリオ毎にリスクチェーン(リスクの関係性)を検討
Step7. リスクチェーンを踏まえてリスク対策を具体化
Step8. リスクシナリオの検討を集約して各ステークホルダーの役割を整理
識別した「リスクシナリオ」ごとにリスク対策を検討していきます。
AIサービスのリスク対策としては、ざっくりと以下のようなものが考えられますが、
・AIモデル:モデルの性能確保(予測精度、公平性、頑健性等)、判断根拠の出力等
・関連する技術:システム環境、データ、連携する処理、ログの記録等
・サービス運用:レビュー、モニタリング、インシデント対応、ステークホルダーへの説明等
・ユーザー:利用者の理解、利用者環境の整備、正しい利用等
以下のマップを使って技術・非技術のリスク対策(コントロール)を識別していきます。
それぞれの白いボックスを「構成要素」と呼んでいるのですが、その内容は以下の通りになります。
1つのリスクシナリオを考えたときに、そのリスク要因は様々な箇所に点在します。
例えば「誰かを不公平に扱う」というリスクシナリオを考えたときに、学習データ/AIモデル/プロンプト/UIの表現方法/利用者の理解等、リスク要因は様々に渡っており、その原因を厳密に特定することは極めて難しいです。
同様にAIモデルだけで十分にリスクを低減し続けることやインシデント発生時にリカバリするということは極めて難しいため、複数のリスク対策(コントロール)を関連づけて検討していきます。
この関連づけをリスクチェーンと呼んでおり、この検討過程をコントロールコーディネーションと呼んでいます。
以下が検討例の一つです。リスクシナリオ1つに対して、複数の構成要素でリスク対策を検討し、リスクチェーン(赤い線)で紐づけることで分散型のリスク対策を検討しています。
単一のリスク対策では十分な検討は難しいので、段階的にリスク対策を検討するというイメージです。
※詳細はケースで説明していこうと思います。
レポート
最後のStep9は検討過程について必要な情報を外部ステークホルダーへ開示していくという内容になります。
ここはまだ具体的でないのでケース検討では割愛していくかもしれません。
デジタルMATSUMOTOより補足説明
今回はほぼリアル松本の説明記事になりましたが、ここまでの記事をインプットにしてデジタルMATSUMOTOにこのアプローチについて考察してもらいました。
結構重要なポイントを指摘してくれました。
この3点の指摘についてはいずれもフレームワークだけでは完全に対応することは難しいポイントですが、リアル松本としては本アプローチでこれらの検討をある程度補助することはできると考えています。
1. パーパスアセスメント:各ステークホルダーの期待・目的の理解が難しく、パーパス同士が相反することがある
2. リスクアセスメント:知識や経験が属人化することで網羅性が低下する
3. コントロールコーディネーション:実際には連携を取ることが難しい
次回からデジタルMATSUMOTOとケース検討を紹介していきます。
この記事が気に入ったらサポートをしてみませんか?