見出し画像

顔認識技術の採用を考える際に事業者が必ず考えておきたいプライバシーリスクの話

※免責:筆者は弁護士資格を有していないため、法的なアドバイスではなく動画から情報を整理した内容としてご覧ください

最近は顔認識技術に対して懸念を示す、もしくは違法であると判断される事例も増えてきました。Amazon、Microsoft、IBMは率先して顔認識技術の導入を見送る動きを見せていましたが、先日はFacebookも事業の根幹の一部である顔認識の停止を発表しています。

背景にはアウトプットが不完全なものだという「AIバイアス」の議論と、「顔認識によって選別が行われる」というデータ取得からデータ処理に関わるデータのライフサイクルに関する二つの議論が複雑に混じり合って今に至ります。

データ保護の観点からは主に後者の議論を中心に展開されることが多いです。今回は具体的な事例としてプライバシー業界ではここ一年で大きく取り上げられ、最近オーストラリアで違法と判断されたClearview AIというスタートアップのこれまでの歩みと、提供するサービスの懸念を通して整理してみたいと思います。

※8000字以上あるので、結論だけ気になる方は「各国の見解を受けての顔認識技術によるデータライフサイクルの整理」からお読みください。

Clearview AIとはいったい何か?

Clerview AIを初めて聞いた方が多いかと思います。Clearview AIは米国の大学や民間企業等に顔認識ソフトウェアを提供しているスタートアップです。2017年に設立された同社はオーストラリア人起業家のHoan Ton-That氏が設立し、その後Richard Schwartz氏が参加しスタートします。

設立の経緯や、目的に関しては代表のHoan Ton-That氏がCNNのインタビューで答えています。

(動画:Clearview AI’s founder Hoan Ton-That speaks out)

Clearview AIはソーシャルメディア上で公開されている画像を解析し、特定の個人に関する情報を機械学習で分析し個人の特定を行います。サービスの提供先は政府機関が中心で、犯罪抑止や犯人の追跡、逮捕等での利用を目的にしています。

特に注目されている理由は、展開するビジネス内容に加えて著名投資家のピーターティール氏も出資者として参加しているということです。Facebookのボードメンバーでもある同氏がソーシャルメディア上で公開されている情報を解析する(ソーシャルメディア企業が公式に認めているかどうかは別の議論)スタートアップへ投資している点はとても興味深いところです。

Clearview AIが各国政府から評価される理由

2017年に設立された同社は、FBIを始めとして米国の政府機関、民間企業に数多く導入されています。(現在は米国以外の国でも数多く採用)

同社のサイト上の動画では、7歳の子供の性的な制作物をダークウェブ上で販売していた犯人の発見につながった(プラットフォーム上で公開されていた顔画像と本人の手がかりとなる一枚の画像が一致したため)とサービスを利用したサクセスケースとして紹介しています。

同様に王立カナダ騎馬警察でもClearview AIのサービスを導入していたと発表し、15の子供への虐待のケースで利用し2件の解決につながったと答えています。

(動画:E1100: Clearview AI CEO Hoan Ton-That on balancing privacy & security, engaging with controversy)

Clearview AIがどのようなビジネスで成り立っているかは。エンジェル投資家のジェイソン・カラカニス氏とのインタビューで、同社の顔認識技術の導入に関する詳細の中で語っています。

Clearview AIのプライバシー対応

アクセス管理とデータ利用の透明性

各州の法制度に沿った形でオプトアウトを実施することに加えて、将来的にはウェブカメラ等を利用してサービスへのアクセス管理に顔認識のeKYCを導入すると回答しています。

誰が検索サービスへアクセスできるのか事前にトレーニングを受けた職員に限定することに加えて、サービスの使用ログが自動で記録される設定になっています。(データ利用の透明性)

※アクセス、使用ログを記録しておく理由としは、警察等のサービス利用者が意図的にデータを検索し、ハラスメントやストーカー等の行為を働くことを抑制するための機能として実装しています。

使用ログはローカルではなく、Clearview AI側でも確認できる設計になっていると回答しています(但し警察等の使用状況をClearview AIで確認する設計にはなっていないと回答)。

画像4

ログインの際にはセキュリティ対策として二段階認証を用いており、第三者が容易にアクセスする可能性を回避する設計になっています。

オプトアウト対策

オプトアウト対応は各州の法規制に従う(逆に州でプライバシー法が明確に規定されていない地域は未対応)と回答しています。

Clearview AIのプライバシーと監視に対する懸念及び政府の見解

ソーシャルメディアポリシーへの違反とセキュリティリスク

Clearview AIは設立後数年間はステルスでサービス展開と技術開発を行ってきましたが、ニューヨークタイムズが2020年1月に取り上げた "The Secretive Company That Might End Privacy as We Know It" 記事以降、プライバシーに関する懸念が議論されるようになります。

40を越えるテクノロジーや市民団体からの抗議が公開され、一気に議論が全世界で盛り上がるようになります(丁度カリフォルニアでCCPAが施行された月に当たります)。 

(動画:We're Taking Clearview AI to Court)

Clearview AIが初期に問題視されたのは、ソーシャルメディア上で公開された画像の情報をスクレイピングし、その情報をもとに顔認識の精度を高めていくアルゴリズムを採用していたことです。

このスクレイピングの行為に対して、2020年1月23日のBBCの記事でTwitterが停止するようにClearview AIに対して要求していると発表されています。

"Information derived from Twitter content may not be used by, or knowingly displayed, distributed, or otherwise made available to any public-sector entity for surveillance purposes."

その後、GoogleやLinkedin等のソーシャルメディアサービスからも停止要求が発表されることになりますが、Facebookのみ停止を要求するのではなく詳細を調査すると発表しています。2020年2月のCBSニュースでは以下の内容で紹介されています。

CBS News has also learned Facebook sent Clearview multiple letters to clarify their policies, requested detailed information about their practices, and demanded they stop using data from Facebook's products. Although the company continues to evaluate its options, no formal cease and desist letter has been sent.

更に同月Clearview AIはハッキングに合い、顧客リスト(政府関連機関)への非認証アクセスによって顧客リストの流出が発覚します。これによって、ポリシー侵害に加えてセキュリティ面でのリスクも指摘されることになります。

ここまでは、民間企業及び契約企業間での問題として議論が活発に行われていました。特に顧客リストである政府機関の情報が流出した件以降、セキュリティエンジニアによって調査が実施されるようになりソースコードに対する問題もいくつか指摘されるようになります。

この状況下にも関わらず、Clearview AIは800万ドルのシリーズCの資金調達をピーターティール氏を含む複数の投資家から2020年9月に行います。

大きく取り上げられることになったCapital Hillでの出来事と政府機関の対応

今年の1月6日にアメリカ合衆国議会議事堂襲撃事件が起きたことを覚えている方も多いと思います。米国政府は襲撃者の特定のためにClearview AIが提供するサービスを利用し犯人の特定に当たりました。

これを機に他の州でもClearview AIのサービスを採用する州が増加し(アラバマ州での警察利用)、より大きな波紋を呼ぶことになります。今年に入ってからは、ニューヨーク市警察が導入を決定するなど政府機関でのサービスの導入件数も増えている状況です。

Clearview AIのサービスに対する違法性の見解

カナダ政府の対応

政府機関での導入が進む一方、カナダを始めとしていくつかの地域ではClearview AIの導入に対して違法ではないかという見解も増えています。

(動画:Clearview AI violated Canada's federal and provincial laws)

カナダのプライバシーコミッショナーを務めるDaniel Therrien氏はカナダのテレビ局CPACのインタビューで以下の点を問題として指摘しています。

ソーシャルメディアを利用することはネット上で繋がった人たちとコンテンツをシェアしたりコミュニケーションすることが目的であるにも関わらず、情報を提供している利用者に対して明確な同意なく、目的外のデータ利用を実施している点は合法であるとは考えづらい。公開情報だから問題ないと主張しているが、カナダの法律では公開情報を利用する際の目的は最小にするべきであると考える。

インタビュー当時(今年の始め)はペナルティ含めた対応には、明確には言及せず今後の法律の解釈によると説明しています。その後、今年の6月に入ってカナダのプライバシーコミッショナーは王立カナダ騎馬警察でのClearview AIの利用は違法であるとリリースで公開しました。

既に王立カナダ騎馬警察ではClearview AIの利用を停止していましたが、前回のインタビューで指摘があったように、利用者の明確な同意が法的にどのような解釈になるのか判断されたケースです。

ベルギー政府の対応

ベルギーの警察も同様にClearview AIを採用し100を越えるケースで利用していましたが、こちらもカナダのケース同様に違法という判断になりました。

べルギーの警察ではNGO等と協力して子供虐待の対策で試験的に使用していると発表していましたが、これもケースも問題になっています。

スウェーデン政府の対応

スウェーデン政府はClearview AIの使用に対してとても厳しい制裁を加えることを発表しています。スウェーデンのプライバシー監督局は25万ユーロを地方の警察に対して国内の犯罪データ法から違法なデータ利用として制裁金を課しています。

スウェーデンのケースではClearview AIを使用する警察側に不備があったとして、制裁に至っています。

顔認識技術で取得したセンシティブな情報を取り扱うにあたって警察はデータ管理者として適切にデータ使用におけるリスクを把握し、対策を実施していなかった。Clearview AIで取得したデータは適切に利用者の同意を取得していなかったこと(カナダ同様)に加えて、データ管理者である警察は事前に承認したスタッフ以外もサービスにアクセスし利用することができる状態にあった。

ドイツハンブルグ政府の対応

ドイツのハンブルグでも同様にClearview AIに対して、対応を迫る動きが発表されています。

Clearview AIによってハッシュ化された個人のデータ(問い合わせが行われた個人)の削除及び、削除後にハンブルグに確認を行うこと

と発表されています。ハンブルグのケースでは、ハッシュ化されて保存されたデータが生体情報に当たるのかどうかが議論され、GDPR4条の14項から生体情報に当たるとの見解からClearview AIに対して対応を求めると記載されています。

According to Art. 4 No. 14 GDPR, „biometric data” means personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, which allow or confirm the unique identification of that natural person, such as facial images or dactyloscopic data. Clearview AI Inc. uses a specially developed mathematical procedure to generate a unique hash value of the data subject which enables identification. In this respect, the extracted hash value is a biometric data within the meaning of Art. 4 No. 14 GDPR.

ハッシュ化がされているからと言って個人情報に該当しないというわけではなく、ハッシュ化後も識別が可能であるという話です。特に生体情報のハッシュ化が生体情報と同等のものであるかどうかに対しての見解が出されている点はとても興味深いです。

米国イリノイ州政府の対応

米国のイリノイ州にはBIPA(生体情報プライバシー法)があり、Facebookを始めとして幾つかの顔認識技術に関する案件をイリノイ州で対応するケースが見られます。2020年5月28日にClearview AIも同様にイリノイの個人とイリノイ州ACLU(アメリカ自由人権協会)によって訴えられることになります。訴えの内容としては、

特定の認証された代表者が法的に生体認証データを取得する同意を取得していないことに加えて、どれだけのデータが取得及び保管、利用されているか明確に説明されていないこと

特に保存期間に関しては公に理解できる状態で公表されていないことを問題として指摘しています。被害者はClearview AIに対してデータの削除を要求していましたが最終的にClearview AIが対応を行わなかったため、弁護士費用を含めた訴訟へと発展しています。

Clearview AIサイドの見解としてはフェイスプリントが生体情報に含まれないと主張していましたが、BIPAの下では写真から作成したフェイスプリントは法律が適応される情報という結論になりました。加えてClearview AIサイドは、30億人の顔写真の誰がイリノイ州の住民か特定が難しいのでBIPAは適用されないと主張しましたが、この主張も拒否され法律が適応されることになります。

最終的にClearview AIが公開されている情報を取得し再度掲載することをBIPAが制限することは無いという判断になったものの、事前に同意した上でデータを取得することが要求されることになりました。違法では無いものの、Clearview AIを使用して得られる便益とイリノイ州の市民のプライバシー、セキュリティを同等に扱うことが求められるようになります。

オーストラリア政府の対応

オーストラリアのプライバシーコミッショナーAngelene Falk氏は、Clearview AIの活動がオーストラリアのプライバシー法に違反すると発表しています。発表に至るまでオーストラリア情報局(OAIC)と英国情報コミッショナー(ICO)が共同で調査を実施し、オーストラリア側の見解として(Privacy Act 1988)以下の内容から問題があると結論づけています。

利用者からの同意なくセンシティブな情報を取得していること。
個人情報を収集する際に事前に通知する責務を怠り、公正なデータ取得を行っていないこと。
開示目的に沿って、情報の開示を実施していないこと。
オーストラリアのプライバシーの原則に則って運営されていないこと。

特に強調されているのは、利用者とClearview AIの間で公正な取引が行われ、透明性のあるデータ処理が実施されているのかという点です。これは、ソーシャルメディア上に利用者の意思で自ら画像を投稿する行為が、意図せず犯罪抑止に利用されていることとの乖離を指摘しているということもあり、スクレイピング行為自体を見直していく必要もあるだろうと思います。

各国の見解を受けての顔認識技術によるデータライフサイクルの整理

顔認識技術(監視カメラ等)に関しては "監視されているのかどうか" ということが争点になりがちですが、印象論ではなくデータのライフサイクルに沿って何が問題でどういった対策を講じておく必要があるのかを事前に検討した上で、リスクを評価する必要があります。

Clearview AIのケースを元に各国の見解からデータライフサイクルに関するリスクの評価を整理してみましょう。

顔認識技術の正確性(Accuracy)を高めるためには一定数のデータ量を集めていく必要があります。その際に問題になるのは、そのデータとは一体どんなデータであるのか、そしてどう言った目的でデータを取得するのかということです。

画像1

※少し精度は荒いですが、データのライフサイクルに沿って、データの種類と目的を整理しています。

この一連のデータのライフサイクルに従って各国の政府がどう言った見解を出しているのか整理してみましょう。

画像2

比較すると非常に興味深いですが、各国の政府によってそれぞれ見解が異なるということです。オーストラリア政府は比較的広範囲でClearview AIに対して違法性を指摘していますが、一方の欧州各国の政府はClearview AIではなく警察機関に対して対策を要求していることがわかります。

さらにデータのライフサイクルの取得段階を見ると、カナダ政府やオーストラリア政府は利用者への同意(センシティブなデータであるという前提)で指摘が入っていますが、米国イリノイ州の場合はそもそもプラットフォーム上で公開されたデータがセンシティブなデータであるのかどうか(生体情報に当てはまるのか)の議論から始まっています。

画像3

同じサービスにも関わらず国によって見解が異なる点は非常に興味深いことに加えて、顔認識技術を展開する際にはこう言ったプライバシーリスクが発生することを事前に織り込んだ上でデータのライフサイクルに合わせたリスク評価を実施することが必要になりそうです。(スクレイピングに対する見解も今後出てくると思うのでこちらも注目です)

最後に

データ保護しつつも、データを利用する事業やプロダクト開発の考え方として「Privacy by Design」と呼ばれる方法があります。これは欧州のデータ保護法のもとにもなっている考え方で、「Privacy by Design」なプロダクト開発も徐々に広がってきています。

顔認識技術を利用した新しいサービスを設計する際にも、事前にリスクを検討し評価しておく必要がこれからより注目されていくと思います。

そんな「Privacy by Design」に関心がある方は、気軽にお声がけください👇


いいなと思ったら応援しよう!

栗原宏平(Privacy by Design Lab代表 )
ブロックチェーン技術は世界中の人たちが注目している新しいビジネスのタネの一つです!気になったら気軽にメッセージください!