AIを実装する上でプライバシーリスクを最小化するためには
※このインタビューは2024年5月23日に収録されました
AIの利活用だけでなく、プライバシーを始めとした個人の権利についても注目する必要が高まってきています。
今回はカーネギーメロン大学で研究学生として活動されているハンクさんに、AI開発におけるプライバシーをデザインするための視点についてお伺いしました。
前回の記事より
AIの実践者に対するインタビューから見えてきたもの
Hank: わかりました。先程お話ししていたプライベートプロジェクトについて、AI学習とプライバシーについては端的に「はい」という回答が多かったです。別の切り口の質問についても非常に面白い回答がありました。
特に実践者がAI時代に感じているプライバシーの変化として、プロダクト開発やポリシー設計に大きく影響していると回答がありました。
対象者に依頼した質問としては、プライバシーをどのように定義するのかという話やプライバシー対策をどのように実施しているか等の実践的な話。プライバシーについて、どういった見解を持っているのかという質問や、重要事項として、プライバシー対策にあたってどのようなツール利用を推奨しているのかまで広く質問を投げかけました。
研究結果を要約すると、プライバシー実践者は限られたプライバシーへの理解であるということがわかりました。そのため、AIへのプライバシー導入を啓発する人よりも、本質的にプライバシーを理解する人たちが必要で、AI利用時のプライバシー対策という意味ではツールやガイドラインも限られるという課題に直面していました。
(動画:[CHI 2024] Deepfakes, Phrenology, Surveillance, and More! A Taxonomy of AI Privacy Risks)
ここでは詳細を控えようかと思いますが、プライバシーへの理解が限られるということは、プライバシーの理解促進がとても重要であるという意味でもあります。ただ、プライバシーをAIの文脈で考える際に、不明瞭な部分が多いとは思いませんか?
例えば、大規模言語モデルをプロダクト開発に応用しようと考えたとしても、大規模言語モデルのメモライゼーションに関する問題について検討する人は非常に少ないと思います。こういった問題は、様々なところで起きています。
大規模言語モデルのメモライゼーションに関する問題は、特にプロンプトが機能する段階で発生します。AI学習を通して、あなたが求める回答を行ったとしても大規模言語モデルのシステム上ではユーザー個人の情報を学習しているケースもあります。
そして、他のユーザーが特定のプロンプトを利用し個人の情報を利用するケースもあるわけです。こういったケースが現実で問題になってきています。
ここまでは限られた事例ですが、全体ではより多くのケースが発生してきています。AIに関連したプライバシーリスクの話は、まだまだ対象が限られている状態です。
そして、先程お話ししたように、より多くのプライバシーに関する知見を持った人たちが必要で、広くプライバシーに関連した活動を推奨していく際には越えていくべき壁がいくつか存在しています。
AI時代にプライバシーをデザインするためにできること
例えば、プライバシーに知見がある人が少ないことによって、プライバシー対策が疎かになってしまうことがあります。プライバシーに理解がある人たちについては、プライバシー対策を積極的に取り組む一方で、マネジメントクラスの人たちはあまり重要視しないというケースも出てくるかと思います。
注意すべきは、スコープの中にプライバシーが含まれていないということです。これはプライバシーやセキュリティコミュニティの人たちにとっては大きな機会損失になります。より多くのプライバシー対策に従事する必要性がある一方、プロダクト開発においてはトレードオフのような現象が起きているのです。
ただ、プライバシーに取り組んでいる人たちの中でも、社内で十分な昇進機会を得られないという回答もありました。これは一方でプライバシー保護に極度により過ぎている点もあると思います。
車に例えると、どれだけの車を購入しているかが指標として求められているにも関わらず、プライバシーに関するアジェンダをどれだけプロダクト開発に含めることができたのかが議論の中心になってしまっています。
他にもいくつか事例があります。ここからは後ほど紹介することにしましょう。これは非常に興味深い調査結果です。プライバシー実践者がプライバシーに関する仕事を進めていくほど、機会が失われていくことになるので、本質的な課題ではないかと考えられます。
最後に、プライバシーに関連した対策を支援するツールが非常に限られるという問題があります。プロダクト開発や日々の運営に携わっているチームにインタビューしてみるとよくわかりますが、背景情報や知見、ツールはまだ足りていない状態です。
多くの担当者は企業が提供するプライバシー研修を通しての理解に限定されています。例えば、トレーニングの中にオンボーディングセッションと呼ばれるものがありますが、これはどのプライバシートレーニングでも実施されている一般的な内容になっています。簡単に説明すると、どのプライバシートレーニングでも一般的な内容しか教えていないのです。
これでは、日々プライバシー実務の変化に追いつくことは非常に難しいのです。いざ実践の場に出てみると、プライバシーは誰もが理解している範囲よりも複雑であることがわかると思います。
それ以外には、多くのクライアント案件に関わっている人たちから、「なぜプライバシーに取り組む必要があるのかを質問される」との回答がありました。
多くのケースでは、GDPRが制定されてから欧州では規則に適合しなければプロダクト展開ができなくなると説明しているケースが多かったのです。コンプライアンス対策というのは確かに重要な要素の一つではありますが、プライバシーが目指す世界を考えると最低限やるべきことの一つでしかありません。
私は、本来プライバシーに向き合うために実施すべきことをまだまだ実践できていないケースがよくあると考えています。プライバシーやセキュリティに精通している研究者と話をしてみると、色々と興味深い関係が残っていることもわかりました。
最終的には法やコンプライアンスに則った形での対策が必要にはなりますが、現場で実践している人たちからは法やコンプライアンス対応以上にやりたいことがあるという意見もありました。
そうですね。研究を通して見えてきたことを通して、AI時代に突入することでプライバシーに対する考え方が変化してきていることがよくわかりました。ただ、プライバシー実践者の目線で考えると、よりプライバシーに特化して考える必要性も高まってきていると思います。
Kohei: 素晴らしい成果ですね。プライバシー研究結果をわかりやすく紹介いただきありがとうございます。追加でお聞きしたいのですが、AIに関する規制動向についても議論が進んでいて、欧州では実際に法案がいくつか通過してきています。
米国でも政府機関がガイドラインやフレームワークを事業者向けに展開する等の動きが出てきている中で、今後企業や公共機関はプライバシーリスクを把握するために政府指針に従うケースも出てくるかと思います。
ハンクさんが取り組んだ研究の中で、AIにおけるプライバシーリスク分類についての調査結果もあったと思うのですが、調査結果を通してAIとプライバシーリスクを最小化していくためにはどのような方法があるとお考えでしょうか?
AIを実装する上でプライバシーリスクを最小化するためには
Hank: 私たちは分類調査を起点として研究を進めています。私たちのコミュニティ内では継続的に本質的な議論を行っていて、AIによって起こりうるプライバシーリスクとは一体何で、どういった場合に起きうるのかを精査するようにしています。
プライバシーリスクを考える際に、私たちがこれまでに見たことがないものをAIが生み出すことになるのでしょうか?
私たちの間で起きている議論を紐解いていくと、新しい社会課題や出来事が生まれた際に、改めてプライバシーリスクについて考えることが必要になるという意見が多くを占めています。
とても興味深いですよね。規制について考えるべきというテーマでよく会話が行われています。将来的に時間がかかったとしても政策を作る過程でしっかりと理解しておくことが必要になると思います。
ただ、まだそこまで踏み込んだ議論は政策を作り上げる過程で行われていません。なので、検討が必要な材料は沢山残っています。AI開発を推進することはこれまでになかった新しい機会を生み出す上でも非常に可能性があるので、文脈を捉えながら物事を判断していくことが必要になります。
ただ開発に邁進するだけでなく、社会にAIが浸透していく過程で起こりうるプライバシーリスクを検討することが大切です。 私たちはプライバシーとAI利用について、トレードオフな関係であると考えてしまうことが多いのですが、どちらかについて言及するだけでは不十分だと思います。
AI自体が問題なのではなく、AIを利用する際に問題が起きうるのです。AIに対するプライバシー懸念を利活用とトレードオフとして考えることはよくありません。
私たちが伝えたいメッセージはここにあります。私たちの活動を通して、プライバシーを保護するAIが当たり前になり、もし消えるAIが当たり前になれば実現するのかもしれません。
先程私がお話ししたように、差分プライバシーや連合学習等の言葉はテクノロジーの要素であり、AIを活用するリスクを考える上では一部の解決策にしかなりません。
勿論、AIがデータを処理する上でいくつかのプライバシーリスクの悪化を防ぐことにはなると思いますが、全てのリスクを回避できるわけではありません。AIによるリスクの増大やデータ処理リスクは、まだ議論が始まったばかりです。
差分プライバシーを例に考えると、対象のユーザーが犯罪者であるか否かを画像から予測しようと考えた際に、連合機械学習のようなものの設計を想定することがあると思います。
ただ、この方法では本来特定のURLに紐づいたプライバシーリスクを取り除くことにはならず、現在は有効性についての議論を行っている状態です。私たちは、どのようにプライバシー実践者が広い視野を持ってプライバシーの保護について考えられるかを悩み続け、創意工夫の重要性に気づきました。
特定のことに取り組む人たちを支援することだけでは、足りない部分も残っています。プライバシーを保護するようなAIを作り上げていくためには、エンジニアリング問題だけでなく、デザインの観点からもプライバシーについて取り組むことが必要なのです。
Kohei: ハンクさんからお話しいただいたことにはうなづく部分が沢山ありますね。特に個人を特定できる情報の処理については非常にチャレンジングな課題であると思います。AIの浸透を考えるためには、このようなテーマについてもっと議論が必要だと考えています。ハンクさんの研究領域はプライバシー専門家の人たちにとっても有意義なものだと思います。
最後に、これまで沢山の研究調査に関わってきたハンクさんから視聴者の方へメッセージを頂いてもよろしいでしょうか?
AIとプライバシーが共存するための議論
Hank: そうですね。私が皆さんに伝えたいことは、AIとはプライバシーにとってよくないもので、AI開発をやめるべきだという考え方を改めるということです。
私はAIが生み出す新しい機会をとても楽観的に考えています。これまでに私が話をしてきているように、AIの技術発展によってまだ見ぬ新しい機会がどんどん生まれていくことになります。
ただ、私たちがこれからのAIについて考えていくために、AIとプライバシーをどのように話し合っていけば良いか考えていくことが必要だと思います。
今、少し立ち止まってAIに足りないけど必要なことについて考える時期に来ていると思います。AIとプライバシーを検討することも、まだまだ遅くはないですし、未来を見据えながら議論を深めていくことが必要だと思います。
AI利用ばかりに目を向けるのではなく、プライバシーについて考慮したAIについても議論が必要ですね。
そのためにはより多くの研究が必要で、AIを開発する側がどのような意思決定でプライバシーについて考えているのかを知る必要もあります。
そして、私たちの研究を通してどのようにAIに関連する皆様を支援できるのかも考えたいところです。もしよければ、このインタビューを読んでいただいた方にはAIプライバシー分類を私たちのウェブサイトから拝見いただけると嬉しいです。
ウェブサイトには、私たちがどういった方向を見据えて研究に取り組んでいるのかが記載されているので、引き続きコミュニティ活動も推進していきたいと思います。
Kohei: 素晴らしいメッセージをありがとうございます。本日は研究結果を含めて色々な示唆を頂きありがとうございました。ハンクさんとのインタビューを通して、AIとプライバシーに関する理解をより深めていくことができました。
Hank: 本日はご招待いただきありがとうございます。
Kohei: ありがとうございました。
Interviewer, Translation and Edit 栗原宏平
Headline Image template author 山下夏姫