見出し画像

企業が信頼できるAIを構築・提供しやすくするために

Microsoft AI blog が良かったので翻訳してみた。

Making it easier for companies to build and ship AI people can trust 


生成AIの進化と企業が直面する課題

生成AIは多くの業界を変革していますが、企業は技術が進化するにつれ、安全かつセキュアなAIツールをどのように作り、導入するかで苦労することがよくあります。リーダーたちは、AIが誤った情報や有害な情報を生成するリスク、機密データが漏洩するリスク、攻撃者に乗っ取られるリスク、またはプライバシー法に違反するリスクを懸念し、それらを扱うための十分な備えがないこともあります。

「組織はAIアプリケーションの品質やパフォーマンスと同様に、安全性やセキュリティを重視しています。しかし多くの場合、AIを信頼できるものにするために何をする必要があるか、あるいはそれを実行するためのツールを持っていません」
— サラ・バード(Sarah Bird), MicrosoftのResponsible AI担当チーフプロダクトオフィサー


ギャップを埋めるためのMicrosoftの取り組み

このギャップを埋めるために、Microsoftは開発者がセキュリティ、安全性、プライバシーを考慮して構築された「信頼できるAIシステム」を構築・提供するのを支援するツールやサービスを提供しています。こうしたツールは、複雑で厳しく規制された環境で技術を導入する多くの組織を支援してきました。たとえば、患者の医療記録を要約するAIアシスタントや、顧客に税務ガイダンスを提供するAIチャットボットなどの事例があります。

開発者にとっての利点

このアプローチは開発者がより効率的に作業するうえでも役立つと、MicrosoftのResponsible AI担当プリンシパルプロダクトマネージャーであるメールヌーシュ・サメキ(Mehrnoosh Sameki)は言います。

この投稿は、Microsoftの「Building AI Responsibly」シリーズの一部です。このシリーズでは、AIの導入に伴う主要な課題と、それらの課題に対してMicrosoftが責任あるAIの実践やツールを使ってどのように取り組んでいるかを紹介しています。

https://news.microsoft.com/ai/#building-ai-responsibly

「生成AIアプリケーションの最初のバージョンを作るのはとても簡単ですが、実際に公開する段階になると、人々は大きくスピードを落とします。リスクにさらされるのではないかと恐れたり、規制や要件を遵守できているか分からなくなるからです」とサメキは言います。「これらのツールは導入を迅速化し、アプリケーションのテストと安全対策を行う際に安心感をもたらします。」


信頼できるAIを実現するための包括的アプローチ

これらのツールは、Microsoftが「責任あるAI」を構築するために提供する包括的な手法の一部です。これは、Microsoft自身が製品におけるリスクを特定・測定・管理・監視し、そのプロセスすべてを確実に行う中で培ってきた専門知識に基づいています。生成AIが登場した当初、同社はセキュリティや安全性、公平性などの専門家を集め、基礎的なリスクを特定し、ドキュメントを共有しました。これは技術の進歩に合わせて今も継続しています。そして、リスクを軽減するための徹底したアプローチと、それを実践するツールを開発しました。

AI Red Teamや研究者の取り組み

このアプローチには、出現しつつあるリスク(幻覚やプロンプト攻撃など)を特定するAIレッドチームの活動、ディープフェイクを研究する研究者、AIを評価するシステムを開発した測定専門家、安全ガードレールを構築・改良するエンジニアの取り組みが反映されています。具体的なツールとしては、レッドチームがリスクを特定するためのオープンソースフレームワーク「PyRIT」、リスクを継続的に測定・監視するための「Azure AI Foundry」の自動評価機能、有害な入力や出力を検知・ブロックする「Azure AI Content Safety」などがあります。

ベストプラクティスの公開

Microsoftはまた、アプリケーションに適したモデルを選択する方法、システムメッセージの書き方、ユーザーエクスペリエンスの設計方法をベストプラクティスとして公開し、堅牢なAI安全システムを構築する一助としています。

「さまざまな種類のリスクに対して多層的に防御する“ディフェンス・イン・デプス”のアプローチを採用し、それぞれのリスクに対処するための保護策を何重にも備えています。そして私たちは、この作業をユーザー自身が行えるようにするためのすべての要素を提供しているのです」
— サラ・バード(Responsible AI担当チーフプロダクトオフィサー)


企業への具体的な支援事例

税務支援チャットボット

税務支援用のチャットボットを構築した税務準備サービス企業にとっては、AIの「幻覚」を修正する機能が特に重要でした。これは正確な情報を提供するうえで不可欠ですとサメキは言います。また、この企業は、プロンプト攻撃や有害なコンテンツ、個人を特定できる情報をブロックするフィルターを導入することで、チャットボットをよりセキュアで安全、プライベートなものにしました。

「自社のAIシステムを信頼できるものにすることは、私たちの事業の基盤となっている取り組みです。そして私たちは、お客様が同じことをできるように支援していきたいのです。」
— サラ・バード(Responsible AI担当チーフプロダクトオフィサー)

医療現場での要約アシスタント

サメキによると、患者の医療記録を要約するAIアシスタントを開発した医療関連組織は、正確性の向上や要約が重要な情報を省略しないようにするためのカスタムフィルターの作成に特に興味を持っていました。

「私たちの多くのツールはアプリケーションを改善するためのデバッグ用ツールとしても役立ちます。どちらの企業も、より迅速に、しかも大きな自信を持って導入できたのです。」
— メールヌーシュ・サメキ


AIガバナンスとコンプライアンス対応

Microsoftはまた、組織がAIガバナンスを強化するのを支援しています。AIガバナンスとは、アプリケーションやモデルの開発・導入・運用に関する重要な情報を追跡し、共有する仕組みのことです。現在プライベートプレビュー中の「Azure AI Foundry」内で提供されるAIレポートを活用すれば、組織は評価結果や潜在的リスク、その緩和策などをドキュメント化し、増え続けるAI規制に対応しながら関係者が共同作業できる統合プラットフォームを手に入れることができます。

「適切なガバナンスがないと、すべてがちゃんと機能しているかどうかを把握するのは難しいのです。私たちはMicrosoftのAIシステムがコンプライアンスを遵守できるようにし、そのうえでベストプラクティス、ツール、技術を提供し、お客様のコンプライアンスの取り組みを支援しています。」
— サラ・バード


さらなる発展に向けて

これらの取り組みは、人々がAIでより多くのことを成し遂げられるようにし、作業をより簡単にするための知見を共有したいというMicrosoftの目標の一部でもあります。

「私たち自身のAIシステムを信頼できるものにすることは、私たちが行うすべての基礎となるものであり、お客様が同じことをできるように支援したいと考えています」
— サラ・バード

MicrosoftのResponsible AIに関する取り組みについてさらに詳しく知る


Lead illustration by Makeshift Studios / Rocio Galarza. Story published on January 22, 2025.

いいなと思ったら応援しよう!