Microsoft:米国警察のAzure OpenAI Serviceによる顔認識利用を禁止
マイクロソフトは、Azureベースの顔認識ソフトウェアを米国の警察機関が使用することに対し、自主的に制限を設けました。これは、Responsible AI Standard(責任あるAIスタンダード)に基づいたもので、技術の使用が社会的な利益にかなう形で行われるようにするためです。
顧客がAzure Face APIなどの顔認識サービスにアクセスするには申請が必要で、すべてのユースケースは基準に従って審査されます。既存の顧客でも基準に適合しない場合、2023年6月までの猶予期間後にアクセスが制限される可能性があります。しかし、メガネの有無や顔の角度などの基本的な顔検出機能は引き続きすべての顧客が利用でき、制限はかかりません。さらに、プライバシーや公平性に関する懸念から、性別や年齢などのセンシティブな属性を分類する機能も削除されました。
他の企業、例えばOpenAIなども、それぞれ独自の倫理的なAI利用の基準を持っています。マイクロソフトの顔認識サービスは現在、Limited Accessポリシーの下にありますが、他社は異なる規則や制約を持っているかもしれません。各プロバイダーの倫理的な利用ポリシーを確認し、技術の責任ある使用を確保することが重要です。国家警視庁に断固とした態度をとるサティア・ナデラ氏かっこいいです。
マイクロソフトの新しい利用規約
マイクロソフトは、Azure OpenAI Serviceの利用規約を改訂し、アメリカ国内の警察機関による顔認識への利用を明確に禁止しました。特に、現在のOpenAIのモデルや将来的に追加される可能性のある画像解析モデルとの統合について、警察機関での利用を全面的に制限しています。
法執行機関への全世界での規制
また、新しいポリシーでは、リアルタイムの顔認識を携帯カメラ、ボディカメラ、ダッシュカムに組み込むことも、世界中のすべての法執行機関で明示的に禁止されました。これには、予測不能な環境での個人の特定が含まれています。
背景と批判
このポリシーの変更は、軍・警察向け技術製品を提供する企業Axonが、OpenAIのGPT-4モデルを使った音声要約システムを発表した1週間後に実施されました。この動きには、事実誤認の可能性や訓練データに由来する偏見が懸念されるとの批判が寄せられています。
利用規約の例外と国防省との協力
完全な禁止はアメリカ国内の警察機関に限られており、管理されたオフィスのような環境での固定カメラによる顔認識は適用範囲外です。マイクロソフトは国防省(DoD)向けにDALL-Eを含むOpenAIツールを利用したプロジェクトを提案し、OpenAIはペンタゴンと協力してサイバーセキュリティの開発を進めています。
政府向けAzure OpenAI Service
2月には政府機関向けに、より厳格なコンプライアンスと管理機能を備えたAzure OpenAI Serviceをリリースしました。政府機関と警察向けに設計されており、米国国防省の認証も取得する予定です。
この情報を元に、Azure OpenAI Serviceにおける最新の取り組みと、AIの倫理的な利用について議論する記事を作成するとよいでしょう。
以上記事の要約ですが、ここからは記事に対する感想になります。
筆者はサティア・ナデラ氏の姿勢に賛同します
責任ある AI の使用を優先し、これらのテクノロジーが法執行機関とどのように相互作用するかについての境界線を設定するというサティア ナデラ氏の姿勢は賞賛に値します。 Microsoft は、米国警察による顔認識用の Azure OpenAI サービスの適用を積極的に制限することで、自社のテクノロジーが倫理的価値観と一致していることを確認するという原則に基づいた立場をとりました。このアプローチは、たとえ国家や企業の圧力に直面しても、個人のプライバシーを保護し、AI の潜在的な悪用を防ぐという取り組みを反映しています。
彼のリーダーシップは、透明性、公平性、説明責任を優先する AI 標準の作成に対する Microsoft の献身的な姿勢を強調し、進化するテクノロジー環境における責任ある主体としての地位を確立しています。この決定は最終的に、他のテクノロジー企業がイノベーションと倫理的配慮のバランスを取る上で従うべき例となるでしょう。