
どのようにしてAIは我々のプライバシーリスクを高めているのか
※このインタビューは2024年5月23日に収録されました
AIの利活用だけでなく、プライバシーを始めとした個人の権利についても注目する必要が高まってきています。
今回はカーネギーメロン大学で研究学生として活動されているハンクさんに、AI開発におけるプライバシーをデザインするための視点についてお伺いしました。

前回の記事より
ここからはAIの誕生によってどのようにプライバシーの在り方が変化していくかお伺いしてもよろしいでしょうか?
AIの広がりによってプライバシーの概念はどのように変化していくのか
Hank: 勿論です。これは私の同僚とも日々話をしている内容です。なので、AIとプライバシー動向には非常に興味を持っています。まずは多くの人たちがAIに対して、どのような関心を持っているかを話していきたいと思います。
多くの場面で技術開発を下支えする役割としてAIを導入するケースが増えてきています。顔認識技術で採用するケースやドキュメントを要約するためのロジックモデル等が代表例です。記事を書いたり、画像やアートを生成したりすることができるようになったことで、より身近で便利になりましたよね。
一方、実社会でAI利用が進んでいく中で新しい弊害も徐々に浮き彫りになり始めています。例えば、顔認識技術を例に考えてみましょう。これまでも顔認識技術については、第三者が情報にアクセスして対象を識別することも容易だったかと思います。
現在よく話題に上がる大規模言語モデルについては、第三者の情報を利用してアルゴリズムの学習に活用するケースも見受けられます。そのため、アルゴリズム学習のために個人情報を利用する際にはユーザーの同意を事前に取得し、ユーザーが複雑なアルゴリズムを理解した上で情報を提供しているかが大きなポイントになります。

一方でディープフェイクを生み出すようなアルゴリズムを要したケースについては、デジタル社会を大きく歪める要因になっている側面もありますよね。こういったAIシステムによる弊害によって、私たちのプライバシーに対する考え方が少しづつ変化してきています。
今後AIによって救われる環境ではなく、AIによって被害が広がっていくようなケースが増えていけば、私たち利用者のプライバシーについても広く疑問の声が上がってくると思います。
これはAIの利用が促進されることによって、私たちのプライバシーが侵害されるリスクも高まっていくということです。では、これからのAIが私たちのプライバシーにどのような影響を与えることになるのでしょうか。
まず考えないといけないことは、AIによって実現できる未来への期待値が高まっていくことで、本来はAIで代替できないこととAIによって実現できることの境目が見えづらくなり、過度なAIへの期待が高まり、踏み込んではいけない私的な情報との境目について触れる機会が少なくなってしまいます。
AIの発展だけに注目するのではなく、AIによって私たちのプライバシーが侵害される可能性を理解した上で、ブラックミラーとしての側面も合わせて把握しておくことが必要です。AIの発展と合わせて、私たちが日々利用しているコンピューターの拡張性に対しても関心を持つことが大切ですね。
ただプライバシーに対する考え方の変化に伴いどういった対策が必要かは、現時点で明確な部分と不明瞭な部分が混在しています。また、今後プライバシー性の高い個人データの扱いが変わることによって、新たな対策が必要になる場合もあります。このように個人データの取り扱いについて不明瞭な部分が残っているのです。
ではこういった場合に、どういった対応が必要になるのでしょうか。
多くのリスクは、AIを導入しようとした際にわかります。なので、私たちの研究はAIに関する仮説を取り上げるよりも、現在AI活用の現場で起きていることを分析して統合することに主眼においています。
そのため、現実世界で起きている事象を深く分析して、意思決定に応用できるような環境づくりに取り組んでいるのです。
AIとプライバシーの関連性を研究するための手法
私たちが研究の中で利用するソースとして、AIによって引き起こされたインシデントのデータソースがあります。これは公になっているもので、オープンソースで利用でき、インシデント事例の蓄積として保存されています。
このデータソースはAIIDと呼ばれていて、公にアクセス可能なインシデントに関連したデータベースです。多くのアクティビズムやジャーナリズムを侵害するようなAIインシデントを記録し、そのインシデントを共有できるドキュメントにまとめて、スプレッドシートで閲覧できるようにしています。これまでの記録の蓄積という話をしたのは、こういった背景があるからです。
(動画:EAAMO'23 - The AI Incident Database as an Educational Tool to Raise Awareness of AI Harms)
このスプレッドシート内で関連性のない情報について、編集者によって削除されるようになっています。削除対応を行なっているといっても、AIによる被害は数が多いため、プライバシーに限らず透明性や公正性等の問題事例についてはまとめて記録されています。
私たちが研究で取り組んでいることは、これらのインシデントから手作業でプライバシー関連の被害ケースを集めて分析を行うことです。実際に発生している侵害を分析して、傾向を整理するためにはこれが効果的な方法です。
被害ケースを集めた後にインシデントケースを比較し、分類を行っていきます。分類を行う際には、2006年にダニエル・ソロブ教授が発表した分類方法を活用しています。過去に発表された内容を題材にすることで、基本的なプライバシーの考え方を現代のAI応用社会の比べて、事前と事後でわかりやすく整理することを目的にしています。
先程紹介したソロブ先生が分類を発表した2006年時は、AIは一つの要素であり、ここまで広く注目されることはなかったと思います。当時も多くのプライバシーリスクについて言及がありましたが、AIが今ほど広く普及していたわけではないため、AIが当たり前になりつつある現代と比較することは非常に意味があることだと考えています。
簡単にまとめると、我々の研究ではAIが誕生したことで生まれた新しいプライバシーリスクが、AIによってさらに深刻化しているかどうかの分類を行っているのです。インシデントの分析を通して、AIによるプライバシー権の侵害が基本的にどのように変化しているのかを整理しています。
ここまでのケースを分析していくと、AIによって今までに見たことがないようなプライバシーリスクも生まれてきています。また、AIによってこれまで考えてこなかったプライバシーリスクの悪化も見られるようになってきました。
私たちが既に理解しているリスクもありますが、今後はリスクを常に把握しながら、積極的に対策やスキルを開発していくことが必要になります。今後AIの浸透によって新しいリスクの広がりを後押しすることが容易に考えられますし、現在のプライバシーの考え方を応用することによって対応することができる場合もあります。
これまでの研究を通して、一つ一つのインシデントケースを分析していくと、必ずしもAIが新しいプライバシーリスクを生み出すわけではないことがわかってきました。
また、これまでには存在し得なかった新しいプライバシーリスクへ影響するわけでもないことはわかってきました(但し、多くの場合はプライバシーリスクに関わる)。
どのようにしてAIは我々のプライバシーリスクを高めているのか
私たちがインシデントのデータベースを実数字で分析したところ、90%以上のインシデントについては、AIによってプライバシーが悪影響を与えていることもわかりました。
個別のプライバシー関連インシデントを一つ一つ読み解いていくことは難しいですが、これまでの分析結果については、AI privacy taxonomy.com に記録し、皆が確認できるようにしていますので、ご興味があればご覧ください。
私たちの研究を通して見えてきた「AIによって悪化したプライバシーへの影響」とは一体何かについてもお話ししたいと思います。具体的な例を挙げると、監視にまつわる環境が上げられます。監視活動は現代のAIが発達する以前から広く実施されてきたものです。
(動画:Deepfakes, Phrenology, Surveillance, and More! A Taxonomy of AI Privacy Risks)
一方で新しいテクノロジーに対しては、常に私たちの会話ややりとりを記録し、個人の活動を記録しながらビジネスに生かすような監視活動を問題視する動きも始まっています。
AIの発展によってこの監視問題に変化が起きたのですが、AIの導入が進んでいくことによって、AIを信頼する必要が高まり必要な情報量を提供することによって効果的に機能するモデルが浸透してくるようになりました。これは非常に重要なポイントになります。
どのようなAIモデルを採用するのかは関係なく、AIを利用するに当たってはより多くのデータが必要になります。逆に、私たちが目的を達成するために多くのデータを必要とするためには、より効果的なモデルを採用する必要も高まってきています。
こういった傾向は大きな問題を抱えていて、本来必要とするデータ量以上にAIがデータを処理するという現象が生まれています。より多くのデータを学習に利用することは、信頼できるAIを実現するためにより効果的な方法であると考えられているからです。
具体的な例を紹介したいと思います。監視活動は現在の技術でも行われていますが、今後AIによってスキルの偏重が悪化していくことになります。例えば、人相や音に関するプライバシーリスクというのは、AIの登場によって懸念が高まっている分野になります。
人相学というのは疑似科学の一つで、特定の主張をもとに個人の特性やメンタル状況を表情や体の特徴だけを通して把握するものであると考えられています。
AIについても、このような手法を用いて利用されるケースが多々見られます。特定の個人がゲイであるか、ストレートであるか、もしくは犯罪者であるか否かを顔の情報を元に判断していきます。
このような場面でAIを利用する場合には、利用者のセンシティブな情報を取り扱うためプライバシーリスクが発生することを念頭に置きながら、AIシステムに自らの情報を提供していることを理解しておくことが必要です。
ここまで二つのケースを紹介してきましたが、こういったケースについてはAIによってプライバシーリスクが悪化する可能性が考えられるため、新たなプロダクト設計においては、設計前から十分にリスクを考慮しておく必要があります。
先程説明したように、公表しているウェブサイトやペーパー以外にも色々な気づきがありましたので、ぜひ気になる方はウェブサイトをチェックしてみてください。
Kohei: ウェブサイトも紹介いただきありがとうございます。AIとプライバシーに関連した歴史を紐解くような参考資料は非常に少ないので、ハンクさんの研究内容はこれまでの変化を知るために非常に役に立つ内容になっています。
では次のテーマに移りたいと思います。ハンクさんは30人以上の方に、どうやってプライバシーを保護する取り組みを推進されているかを伺ったと聞いています。取り組まれた研究概要とこれまでのインタビュワーからの回答結果についてお伺いしてもよろしいでしょうか?
〈最後までご覧いただき、ありがとうございました。続きの後編は、次回お届けします。〉
データプライバシーに関するトレンドや今後の動きが気になる方は、Facebookで気軽にメッセージ頂ければお答えさせて頂きます!
プライバシーについて語るコミュニティを運営しています。
ご興味ある方はぜひご参加ください。
Interviewer, Translation and Edit 栗原宏平
Headline Image template author 山下夏姫