個人情報を生成AIに安全にインプットする未来が到来?最新の動向をチェック!
個人情報、ChatGPTにインプットしていませんか?
生成AIの急速な発展により、私たちの生活やビジネスの現場ではさまざまな利便性が提供されています。しかし、その一方で個人情報の取り扱いやプライバシー保護に関する課題も浮き彫りになっています。特に、生成AIに個人情報をインプットする際に生じる法的リスクやセキュリティリスクについて多くの疑問が寄せられています。
最近では、個人情報を生成AIに合法的にインプットできるような動きが市場に出てきていることが注目されています。このリサーチでは、生成AIにおける個人情報の安全なインプット方法や、それを可能にする最新の技術について取り上げました。特に、ローカル環境での生成AI活用や企業での実践的な取り組みについて詳しく解説しています。
生成AIと個人情報の関係
基本的に、ChatGPTを含む多くの生成AIにインプットされた情報は、OpenAIなどの運営会社に学習データとして使用される場合があります。そのため、自発的に学習のオプトアウトを行うか、エンタープライズ向けなど最初から学習がオプトアウトされているモデルを使用することがビジネスにおける一般的な対応となりつつあります。
しかし、個人情報のインプットには注意が必要です。一定のレベルを超える個人情報は、学習されない場合であってもインプットしてはならないというのが多くの企業の社内ルールです。「学習されないのに、なぜインプットしてはいけないのか?」と疑問に思うかもしれませんが、これは個人情報保護法第27条「第三者提供の制限」に基づいています。取得した個人情報を第三者に提供してはならないという法律です。生成AIは基本的にクラウド上にあるため、学習されない場合でも他社に情報を渡してしまうことになり、法律に抵触する恐れがあります。
クラウド上の生成AIと個人情報保護法の見解
「個人情報保護委員会『個人情報の保護に関するガイドライン』に関するQ&A」Q7-53では、「クラウドサービス提供事業者が当該個人データを取り扱わないことになっている場合には、個人データを提供したことにはならない」とされています。このため、オプトアウト済みの生成AIは「当該個人データを取り扱わない」とみなされるため、個人情報をインプットしても法的に問題ないとする見解が有力ですが、あまり知られていません。一方で、関連する判例はまだ少なく、一時的にクラウド上に保存された情報が漏洩した際の責任の帰属主体が不明確なため、リスクは依然として残っています。特に大企業においては慎重な取り扱いが求められます。
参考:
1. 中央経済社, 『ChatGPTの法律』, 中央経済社, 2023, p.70-71。
2. 個人情報保護委員会『個人情報の保護に関するガイドライン』に関するQ&A」Q7-53
個人情報取扱事業者が、個人データを含む電子データを取り扱う情報システムに関して、クラウドサービス契約のように外部の事業者を活用している場合、個人データを第三者に提供したものとして、「本人の同意」(法第27条第1項柱書)を得る必要がありますか。または、「個人データの取扱いの全部又は一部を委託」(法第27条第5項第1号)しているものとして、法第25条に基づきクラウドサービス事業者を監督する必要がありますか。
セキュアな環境での生成AIの利用
ここで注目すべきは、生成AIがクラウド上にあるため、情報が学習されるリスクや第三者提供となるリスクがあるという点です。逆に、ローカル環境や社内環境で独自のChatGPT(正確には大規模言語モデル)を構築することができれば、外部に情報を一切送信する必要がなく、個人情報や機密情報を安全に扱うことが可能です。
これを実現するのが、ローカル環境に配置して自由にカスタマイズできるオープンソースの大規模言語モデルです。例えば、メタ社のLlamaなどがその一例です。Llamaはオープンソース版のChatGPTと考えても良く、その性能はGPT-4oと同等、あるいはそれ以上とされています。アメリカではこのような動きが進んでおり、Llamaの認知度は日本の11%に対してアメリカでは41%もあります。
マイクロソフトのCopilot + PCの登場
また、マイクロソフトはローカルに大規模言語モデルのミニバージョンである小規模言語モデルを搭載した「Copilot + PC」を発売しています。この製品の最大のメリットは、ローカル環境での運用が可能であるため、情報漏洩や個人情報の第三者提供のリスクがなく、あらゆる情報をインプットできる点です。
インテルの技術者によれば、これらの技術は情報の秘匿性が非常に高い金融機関などにおける生成AI活用のブレイクスルーになると示唆されています。たとえば、ZOZOのプログラマーが55%の工数削減に成功したプログラミング支援生成AIを、今後金融機関の現場でも活用することが可能になると期待されています。ローカル環境での大規模言語モデルの利用により、これまで秘匿性の観点から難しいとされていた場所でも生成AIの恩恵を受けられるようになるでしょう。
参考:
1. ZOZO TECH BLOG - GitHub Copilotの全社導入とその効果
2. PwC - 生成AIに関する実態調査2024 春 米国との比較
3. Microsoft - Copilot+ PC の紹介
まとめ
個人情報を生成AIにインプットすることには法的リスクと技術的リスクが伴う。
リスクを最小限にするため、ローカル環境や社内環境で独自に大規模言語モデルを利用することが有効。
ローカル環境の利用により、情報漏洩や第三者提供のリスクを回避しつつ生成AIの恩恵を受けることが可能。
マイクロソフトの「Copilot + PC」やメタ社の「Llama」など、セキュアなAI活用を実現する技術が登場している。
秘匿性が重要な業界においても、これらの技術によって生成AIの活用が可能になり、ブレイクスルーをもたらす可能性がある。
今後もこれらの技術の進展を注視し、安全かつ効率的に生成AIを活用していくことが求められる。
皆様の「スキ」や「フォロー」が励みになっています!
もし参考になる、興味深いと思っていただけましたらポチっとお願いしますm(_ _)m