【専門家がみる生成AI最新動向#4】~生成AIのガバナンス~
【専門家がみる生成AI最新動向】
このシリーズではデロイトの生成AI有識者たちが、生成AIに関する最新動向を解説していきます。
四回目は、デロイト トーマツ リスクアドバイザリー合同会社の原嶋 瞭が解説する「生成AIのガバナンス」です。本記事は、デロイト トーマツ グループが実施したAIガバナンス サーベイ(https://www2.deloitte.com/jp/ja/pages/deloitte-analytics/articles/ai-governance-survey.html)を踏まえながら、特に生成AIのガバナンスに焦点を当て、その最新動向と課題について考察します。
解説者紹介
原嶋 瞭(Harashima Ryo)
日系SIerにて官公庁に対し業務システム改善に関する提案や、AIを用いた業務改革の支援等を経験し現職
デロイト トーマツ入社後は、官公庁向けのDX事業や、様々な業界に対するAIガバナンスに関するアドバイザリー業務に従事
画像処理・自然言語処理に関する基礎からビジネス応用までの知見を有する
2021年より東京大学の客員研究員としてAI公平性の研究を実施中
1. 生成AIの利活用とリスク
1-1.生成AIとは
AI(人工知能、Artificial Intelligence)は、いまや私たちの日常生活と産業に欠かせません。AIは、インターネット、スマートフォン、SNSといったテクノロジーが浸透したように、私たちの生活のあらゆる側面にも着実に浸透してきています。
話題の「生成AI」は、AIの一種であり、その目的は新しい情報を生み出す(生成する)ことです。生成するものは文章、画像、音楽など多岐にわたりますが、生成AIの最も一般的な使用方法は、人間が理解できる言葉を生成する文章生成です。また、画像生成AIも注目されており、特定のテーマやスタイルに基づいて新しい画像を生成することが可能です。
【企業の生成AI利活用事例】
報告書やメールの作成:財務や業績の報告、日常のメールなど、特定のテーマに基づいて資料や下書きを生成し、業務時間削減を図る。
顧客対応チャットボット:顧客の質問に自動的に回答するチャットボットを構築し、顧客サービスの効率化と品質向上を図る。
デザイン生成:新しいアートワークやデザインを生成し、アーティストやデザイナーがインスピレーションを得る。
1-2. 生成AIのリスクとは
生成AIは、その能力で大きな注目を集めていますが、生成AIの能力が増すにつれ、その使用による潜在的な課題とリスクも増加しています。例えば、AIの判断の信頼性や公平性の問題、AIが人間のプライバシーをどのように扱うか、などです。これらの課題に対処するためには、生成AIのガバナンス、つまり生成AIの開発や使用に関する規範やポリシーの設定等が不可欠となってきています。次の章で、AIガバナンスの重要性と具体的な取り組みについて詳しく説明します。
【企業で生成AIを使用する際のリスク事例】
偽情報生成:信頼性のない情報や誤情報を生成してしまうリスク。「ハルシネーション」(幻覚)とも言われる。誤解を生んだり、人々の意見へ誤った影響を与えたりする危険性がある。
権利侵害:実在の人物の写真や実在の作品を参考として用いることで他人と酷似したコンテンツを生成してしまうリスク。著作権や商標権を侵害する危険性がある。
有害なコンテンツの生成:暴力や虐待、差別などの不適切または有害なコンテンツを生成してしまうリスク。有害な情報が拡散し、法的措置や風評被害などを招く危険性がある。
2. 生成AIのガバナンスとは ~具体的なリスク対策事例と共に~
生成AIを含む「AIガバナンス」は、AIの開発と使用に関する規範やポリシー等を設定、態勢整備、適切に行動して規範を順守するプロセス等の、「AIリスク対策の活動全般」を指します。AIガバナンスとは、AIに関する会社全体の利益を最大化し、潜在的なリスクと課題を最小化するための枠組みと言えます。
デロイト トーマツ グループでは、2020年から2022年の3年間、企業のAIガバナンスの浸透状況を調査する「AIガバナンスサーベイ」を実施してきました。そこでは、直近のAI利活用の舞台がPoCではなく本番運用へ移り、AIガバナンスの成熟度も増していることが分かっています。企業がAIを日常的に使用しているということは、新たなトレンドである「生成AI」も自然と企業活動に取り入れられるため、そのガバナンスについても検討されることでしょう。
AIガバナンスに関する企業の具体的な取り組みとベストプラクティスの一部を紹介します。これらの取り組みがどのように実現され、どのように生成AIの課題とリスクに対処するのに役立つのかというのは、企業によって様々です。生成AIに対して既存のガバナンスの枠組みで対処が可能か、リスクの見落としがないか等、自社の環境に置き換えて検討する必要があります。
【企業の具体的な生成AIのガバナンスの事例】
AI倫理ガイドラインの策定:生成AIの倫理的な使用に関するガイドラインを策定し、規範の順守に努める。
教育とトレーニング:AIの開発者とユーザーがガバナンスの重要性を理解するために、AIの倫理、データ管理、AIのリスク管理に関する教育とトレーニングを実施。
品質と安全性の監視:生成AIのアウトプットが正確で信頼性があることを監視するとともに、予期しない結果や危険を引き起こした場合の対策を立てる。
透明性と説明可能性の確保:生成AIのアウトプットをどのように制御するかを決定し、必要に応じて説明ができるように準備する。
法規制の遵守:AIに関する各国の法律や各機関のガイドラインを遵守する。
AIリスクへの対処方法は、上記だけではありません。新たな部署としてAIに関するCoE(センターオブエクセレンス)組織を立ち上げる企業もあります。また、AIガバナンス機能を持つツールやプラットフォームを導入する企業もあります。
AIガバナンスサーベイにおいては、企業のAI活用目的が、業務効率化やコスト削減だけでなく、売上拡大や新規ビジネス創出まで拡大していることが見受けられました。また、AIが活用される業務ドメインは研究開発・製造・マーケティング・企画・事務など、この数年で大幅に増加しました。生成AIの登場によって、その汎用性の高さから、この傾向は衰えることなくさらに広がることでしょう。翻って、AIリスクが発生する領域も増えるということでもあります。
しかし、AIガバナンスサーベイでも言及したように、AIリスクの認知は進んだものの、対処までを十分にできていない企業がいるのも事実です。ぜひこの機会にAIガバナンスへの理解を深め、AIリスク対策のはじめの一歩を踏み出してみてはいかがでしょうか。
3. 結論: 生成AIとAIガバナンスの役割
この記事を通じて、生成AIの可能性とその課題、そしてそれに対処するAIガバナンスの重要性を探りました。生成AIは、私たちの生活や働き方を大きく変える可能性を秘めています。しかし、その一方で、新たな課題とリスクも生じています。
これらの課題に対処するためには、AIガバナンスが極めて重要な役割を果たします。AIガバナンスは、生成AIの使用のガードレールとなり、透明性、公平性、プライバシーの保護、セキュリティなどの問題に対処します。これにより、生成AIの可能性を最大限に引き出しつつ、そのリスクを最小限に抑えることが可能となります。
最後に、生成AIとAIガバナンスは、今後AIの利活用を進めていく全ての企業に関わる重要なテーマです。技術者だけでなく、我々一人ひとりがこれらのテクノロジーについて学び、理解を深め、適切な利用法を探求することが求められます。