見出し画像

AI監視は子供たちを救わない:再び頭をもたげるチャットコントロール

分からないことは何でも気軽にLINEオプチャTelegramまたはDiscord
ご連絡いただければと思います😋
お待ちしております🔥

大量監視の幽霊がヨーロッパに迫り続けています。一般データ保護規則(GDPR)によって多くの進展があったにもかかわらず、データ暗号化の回避は依然として標的となっています。

残念ながら、市民の自由の侵害が、モンスターから私たちを守るという約束に包まれることは非常に一般的です。EUの「子供の性的虐待を防止および対策するための規則」(CSA規則またはCSAR)の提案は、その顕著な例です。この規則は今週、再び欧州議会で投票にかけられましたが、プライバシー擁護者が「史上最も批判されたEU法案」と呼ぶ可能性がある論争のため、昨日最終的に延期されました。

2024.06.21に撮られたスクリーンショット

CSARは本質的に、すべての個人ファイルや通信を保護する暗号化を弱体化させるために、AIを搭載した監視技術をウェブクライアントに提供します。これはすべて、児童性的虐待と闘うという名目で行われていますが、この羊の皮をかぶった狼に騙されてはいけません。EU市民には「プライベートな通信か、性的捕食者か?」という虚偽の選択を迫られています。幸いにも、Nymのコアチームやコミュニティを含む多くの人々がこれに対して緊急に声を上げています。

Nymチームは、2022年の初めから「チャットコントロール」バージョン1.0および2.0の進行を注意深く監視してきました。これが再び議論と投票の可能性を求めて、欺瞞的に改訂された言葉で提案されています。しかし、これらの変更は大規模な監視戦略の調子を和らげるだけです。これはすべて、エンドツーエンドデータ暗号化を保護するGDPRの約束を回避しようとする手口です。暗号化はCSARによって直接触れられないかもしれませんが、暗号化に対するより不吉なバックドアが提案されており、大規模なデバイス監視が行われる可能性があります。

以下は、CSAR提案にかかる問題点と、それがEUおよび世界中のオンラインプライバシーに対する脅威となる理由です。

チャットコントロールとは何か?

CSAR立法は、批評家によって「チャットコントロール」と呼ばれるようになったもので、児童ポルノおよび虐待のトラフィックを「送信前に」特定してブロックするための規制試みです。その目的にはほとんど異論はないはずですが、専門家たちは提案された規制が単に効果がないことを警告しています。さらに悪いことに、それは大陸全体のユーザーのデバイスに監視バックドアを許可および強制するものです。

クライアントサイドスキャニング(CSS)

CSARの児童性的虐待物質(CSAM)問題に対する提案された解決策は、クライアントサイドスキャニング(CSS)による大規模な監視です。これは、暗号化された送信を妨害するのではなく、暗号化が行われる前にデバイスやサーバー上のデータをスキャンするものです。これにより、通信のセキュリティとエンドツーエンド暗号化の原則がすべての人に対して損なわれます。

暗号化は安全な通信の基盤です。暗号化された接続を通じてオンラインで何かを行う場合、外部の当事者がデータにアクセスしたり、悪用したりすることができないと合理的に安心できます。元のCSARの取り組みは、クライアントの通信内容を保護する暗号化を破壊するようウェブサービスに強制しようとしました。暗号化が破壊されると、すべてのメッセージが対象の資料のためにスキャンされる可能性がありました。幸いなことに、これは市民社会やプライバシー擁護者からの大規模な反発に直面しました。

現在提案されているのは、暗号化が適用される前にデバイス上のファイルや通信をスキャンまたは「監視」することを法的に許可し、ウェブサービスがそれを可能にするCSS技術です。例えば、AppleがあなたのiPhotoやiMessengerアプリを定期的にスキャンし、脅威と見なされる事前にプログラムされたデータポイントを確認することを想像してください。あるいは、プライベート通信サービスがそのようなことを行う法的命令を受けることを考えてみてください。実際、Signalの社長は、ユーザーのセキュリティに対するこのような妥協を許すくらいなら、EUの管轄区域からサービスを撤退すると公に述べています。

2024.06.21に撮られたスクリーンショット

CSS技術は「根本的に欠陥がある」と科学者たちは言います

監視スキャンプログラムは何か特定のものを検索する必要があります。重要な質問は、それが無関係なデータを引き込まずにそのターゲットを明確に見つけることができるかどうかです。CSARの場合、目標はユーザーのデバイスをスキャンしてCSAMの潜在的なインスタンスを見つけることです。これは、例えば、裸や性的な子供の写真や、そのような行為を説明するメッセージを意味します。しかし、これが実際にどのように機能するのでしょうか?

基本的には、AIによって動力を与えられるデータ分析プログラムが、デバイスやサーバー上のすべての暗号化されていないコンテンツにアクセスすることになります。このシステムは、データポイントに基づいて大量の潜在的な脅威をフラグ付けし、すべてのケースを確認のために人間のチームに送信します。このチームはあなたの個人ファイルや通信にアクセスし、何か間違ったことをしたかどうかを判断します。疑わしいコンテンツや活動は、その後、さらなる調査のために法執行機関に転送されます。

研究者たちは、この技術がどれだけエラーを起こしやすいかについて、技術的にも市民の自由に対する害としても非常に声を上げて警告しています。例えば、親の個人的な子供の写真がアルゴリズムによって誤ってフラグ付けされ、その後アナリストによってレビューされ、最終的に法執行機関に渡されることを想像してください。データ科学者たちは、そのような「スキャンは効果がない運命にある」と警告し、大規模に行われると「インターネットとデジタル社会を全体として誰にとってもより安全でなくする可能性がある」副作用を生み出す可能性があるとしています。

タイムライン

CSARは2022年に導入されて以来、EU議会で苦戦しています。今週、最近の議会選挙のレーダー下で戦略的に予定された議論で再登場しています。ここでは、その進展、変更、および現在の状況を見るための主要なタイムラインを示します。

ハリウッド俳優のAshton Kutchnerが、当時のHome Affairs CommissionerであるYlva Johanssonと共に、CSARと呼ばれる提案のためにロビー活動を行っていたことが明らかになりました。これは、彼が共同設立した組織であるThornの利益のためでした。Thornは人々のデバイスをスキャンするために使用されるAIツールを販売しています。(Kutchnerは後に有罪判決を受けた強姦犯を擁護した後、Thornの会長を辞任しました)。

  • 2023年4月13日:CSAR提案の影響に関する欧州議会の委託報告書が、EU議会の市民自由、司法および内務委員会に提出されました。

  • 2023年7月:EU委員会に465人の科学者と研究者の署名による公開書簡が送付されました。科学者たちは、提案された技術の非効率性と「社会の安全なデジタル未来」と「欧州およびそれを超えた民主的プロセス」を損なう可能性について明確に警告しました。

  • 2024年5月2日:32カ国の312人の科学者と研究者による新しい公開書簡がEUに送られました。彼らは、CSAR提案の言語の変更が「根本的に欠陥のある」危険な技術を変えることはないと繰り返し強調しました。この書簡は、プライバシー擁護者で教授であるBart PraneelとNym Techアドバイザーによって共著されました。

  • 2024年2月13日:ロシア対Podchasov事件における欧州人権裁判所の判決は、「電子通信のプライバシーを確保し保護する」ためのエンドツーエンド暗号化の役割と「表現の自由などの他の基本的権利の享受」を保証することを強調しました。

  • 2024年6月20日:延期後に改訂されたCSARの議論と投票が予定されています(「司法および内務」項目28参照)。投票は最終的にキャンセルされました!

CSAR文書は立法提案であり、議会の承認がない限り法的効力を持ちません。それにもかかわらず、EU市民は自分たちの代表者に連絡し、市民の自由を侵害するこれらの努力に抗議することが重要です。

法案の言葉遊び

言葉の表現方法は私たちに大きな影響を与えることがあります。魅力的な表現は、私たちが本当に欲しくないものを欲しくさせたり、実際にはそれほど悪くないものを嫌悪させたりすることがあります。時には、表現が単調で抽象的すぎて、私たちが気づかずに毒入りの薬を飲み込んでしまうこともあります。

ここで登場するのが、最新の「アップロード監視技術」に関するCSARの提案です。何百ページもの議会規則を読み進めると、このような表現は簡単に見過ごされてしまいます。これはまさにその目的で設計されています。それでは、具体的に何を意味するのでしょうか?

スクリーンショット(2024年6月21日撮影)

これを考察してみましょう。

[1]「個人間通信サービスの提供者」とは、他の人とのデジタル通信を扱うあらゆるウェブサービスを意味します。これは広範囲にわたります。明らかにWhatsAppのようなメッセージングアプリ、さらにはSignalのようなプライバシー重視で暗号化されたアプリにも適用されます。しかし、それだけでなく、Appleのような写真やメッセージサービスを提供する大企業、さらにはオペレーティングシステムにまで及びます。

[2]「このCSS技術をインストールして運用する」法的命令は、通信サービスがそれを行うことができるだけでなく、そうしなければならない(または「shall」)ということを意味します。

[3] これが問題の核心です。「送信前に」監視対象を検出することは、暗号化前を意味します。暗号化が行われると、ターゲットとなるデジタル素材を検出するためには暗号化を解除する必要がありますが、これは検討されていません。したがって、この技術は大規模なデバイススキャンを意味し、これはデバイス提供者やアプリ、ウェブサービス運営者が当局の代わりに実行できるものです。暗号化されたデータの目標は第三者のアクセスから保護することであるため、この技術は本質的に暗号化へのバックドアです。

[4] このスキャンの目標がCSAM(児童性的虐待素材)の検出であったとしても、それを検出するためにはAIプログラムがまず私たちのすべてのデータや通信にアクセスできる必要があります。まず、既知の児童性的虐待素材(例えば、当局によって既に特定されている写真やビデオ)と新たに発生する児童性的虐待素材の違いは大きいです。後者の場合、AIプログラムの能力は、性的意図のない個人的な家族写真と児童ポルノを区別する際に重大なエラーを引き起こす可能性があります。

したがって、「アップロード監視」は「人々がオンラインで投稿する素材の量を合理的に保つことを確認する」という無害に見える表現ですが、実際には「法執行目的で暗号化前にユーザーのデバイス上のデータをAIによって監視する」という意味です。この「技術」に「未検証」と「科学的に不可能でエラーが多い」を追加すれば、真実に近づきます。

暗号化を破るか、背後から取るか?

CSARに対する多くの反発は、それがデータ伝送のエンドツーエンド暗号化を「破る」かどうかに集中しています。データ暗号化はGDPRによって保護され、最近のヨーロッパ人権裁判所のPodchasov v. Russia(2024)判決でも強化されました。Signalの社長であるMeredith Whittakerは、これを「言葉遊び」や「ブランド変更」に過ぎないと指摘しています。

「プライベート通信の大規模スキャンを義務付けることは、暗号化を根本的に損ないます。これをバックドアと呼ぼうと、フロントドアと呼ぼうと、『アップロード監視』と呼ぼうと、どのアプローチもハッカーや敵対的な国家によって悪用される可能性がある脆弱性を生み出し、破壊不可能な数学の保護を取り除き、高価値の脆弱性を置き換えることになります。」

私たちのデータを提供するウェブサービスが、暗号化が適用される前にすべてのデータをデバイス上またはサーバー上でスキャンできるようにすることは、技術的には「暗号化を破る」ことではありません。実際には、それははるかに悪いことです。自動化されたAIアルゴリズムが私たちの個人データを当局に接続するための仲介監視役を果たすバックドアです。

CSARの提案には、エンドツーエンド暗号化の価値を称賛する多くの矛盾した言葉があります。CSARは「エンドツーエンド暗号化は、政府、産業界、社会の基本的な権利とデジタルセキュリティを保護するための必要な手段です」と認めています。

それにもかかわらず、それが作り出そうとしているものは、データ暗号化が保護することを意図している同じデータプライバシーを明示的に損なうことになります。提案は、「監視技術」が「データが送信される前に効果的な分析と行動のためにデータにアクセスできることを保証し、データが送信された後のエンドツーエンド暗号化によって提供される保護を損なうことなく」と明確に述べています。

それでも、提案されているものは、データ暗号化が保護することを意図している同じデータプライバシーを明確に損なうことになります。提案書の26a項には、監視または「モニタリング」技術について明確に述べられています。

検出メカニズムがデータに暗号化されていない形式でアクセスし、効果的な分析と対処ができるようにする一方で、データが送信された後もエンドツーエンドの暗号化による保護を損なうことはありません。」

監視が「エンドツーエンドの暗号化を損なうことなく[…]暗号化されていない形式でデータにアクセスできる」というのは、厚かましいナンセンスだ。

ユーザーの同意

CSAR提案のもう一つの大きな変更点は、ユーザーがこれらの監視技術の使用に同意しなければならないということです。

「児童性的虐待素材は、すべての個人間通信サービスにおいて、アップロード時に、プロバイダーの利用規約の下でユーザーが明示的な同意を与えた場合に、精査された技術の適用を通じて検出可能でなければならない。」

これは具体的に何を意味するのでしょうか?ユーザーがデータのスキャンに同意しない場合、視覚的なコンテンツやURLの送信を含まない限り、ウェブサービスを使用できるということです。これにより、多くの通信サービスが実質的に利用不能になる可能性があります。たとえば、プライベートメッセージングアプリを使用したいが、EUがデータを事前にスキャンすることを強制し、正当な理由でそれを拒否する場合、写真やリンクの送信を許可するアプリは、サービスを利用できなくなるということです。

結論

CSARの投票は延期されましたが、決して終わったわけではありません。この法案は、ヨーロッパに大規模なデジタル監視を押し付けるために、言葉遣いをさらに改訂して再び頭をもたげるでしょう。

しかし、多くの人にとって明らかなことは、この種の大規模監視は問題を解決しないということです。これは技術的な問題ではなく、社会的な問題です。Nymの親しい顧問の一人であるBart Praneelは次のようにコメントしています。「なぜ一部の政府が、児童性的虐待の防止に焦点を当てるのではなく、大規模な監視アプローチを推し進め続けるのかは不明です。」

子供に対する害は、社会福祉サービスや他の予防手段に資金を提供することで防止されるべきです。Ella Jukubowska氏とEDriは、オンラインおよびオフラインでのCSAMと児童虐待の問題に対する実際の代替手段を研究してきました。虐待は、暗号化を破り、ヨーロッパ全体のプライバシーとセキュリティを損なうための皮肉なPRスタントとして使用されるべきではありません。そして、私たちは怪物に対する恐怖から、政府が私たちのプライバシー権を侵害することを進んで許容するべきではありません。

今回の投票の遅れが、規制当局がこの事実に目覚め始めていることの兆候であることを願っています。

Nym Dispatch
Nym Dispatch
シリーズは、オンラインおよび社会的プライバシーのエコシステムを深く掘り下げます。オンライン監視経済のリスクと収益化戦術について、特に無料VPN市場から学びましょう。このシリーズでは、無料VPNのログ記録の実態、意図的に曖昧にされた同意契約、データの売買の方法、理由、対象、そして侵襲的な広告手法についても詳しく取り上げる予定です。

Nym Communityに参加

Discord // Telegram // Element // Twitter

Privacy loves company

English // 中文 // Русский // Türkçe // Tiếng Việt // 日本 // Française // Español // Português // 한국인

原文記事:


この記事が気に入ったらサポートをしてみませんか?