Apple、iCloud Photos用CSAM検出ツールの計画を中止。
アーノルド・ザフラ(Arnold Zafra)はMacObserverで2022年12月09日に、2022年12月07日水曜日に、Appleは以前提案したiCloud PhotosのCSAM(child sexual abuse material/児童性的虐待資料)検出ツールを前進させないことを発表した。物議を醸したこのツールは、AppleがiPhone、iPad、iCloud PhotosのCSAMをチェックすることを可能にするものだった。
しかし、この機能はプライバシーに重大な影響を与えるため、批評家たちは反対していた。
Apple、iCloud PhotosのCSAM検出ツールは前進せず
Wiredに送られた声明の中で、Appleは、企業が個人データを調べ上げる必要のない、子どもを保護する方法が他にもあると述べている。
クパチーノ(Cupertino)は、政府、児童擁護団体、その他の企業と協力して、若者を保護し、プライバシーの権利を維持するための支援を続けるという確約をした。
したがって、アップルはそうすることによって、インターネットを子どもたちだけでなく、すべての人にとってより安全な場所にしたいという目的に変更したようだ。
2021年にアップルが初めてiCloud写真用のCSAMツールを発表した時を振り返ると、児童搾取の撲滅と安全性の促進に貢献することを望んでいた。
これらは、テックコミュニティが強く望んでいた緊急課題であった。しかし、さまざまなプライバシー擁護団体から批判が相次いだため、アップルはiCloud向けCSAMツールの実装を中止せざるを得なくなった。
Appleによると、「これらの極めて重要な子どもの安全機能をリリースする前に、今後数カ月にわたって意見を収集し、改善を行うためにさらなる時間を要する。」とのことである。
AppleはまだCSAMに懸念を抱いている
2022年12月07日水曜日の発表は、Appleが少なくとも今のところ、ツールの実装を放棄していることを示している。しかし、それはクパチーノが完全に安全擁護を無視していると言うことではない。CSAMツールの代わりに、Appleは2021年12月に初めて利用可能になったコミュニケーション・セーフティ機能に再び焦点を当てようとしている。当該コミュニケーション・セーフティ・ツール(Communication Safety tool)は、iMessageで受信または送信された添付ファイルが性的に露骨な場合、未成年者とその保護者に警告するオプトインのペアレンタル・コントロール(opt-in parental control)機能になるであろう。もしそうなら、Appleはそれらをぼかすことになる。
iCloudのCSAMツールを進めない計画についてのAppleの最近の声明は、様々な新しいセキュリティ機能の発表と同時に行われた。
特に、AppleはiCloudのデータのエンドツーエンドの暗号化をもたらすと述べた. これには、バックアップ、写真、メモ、チャット履歴、その他のサービスなどが含まれる。
Advanced Data Protectionと呼ばれるこの機能により、ユーザーは特定のデータをハッカーや政府、スパイから安全に保護することができるようになる。
しかし、AppleのAdvanced Data Protectionは、政府、特にFBIから否定的な反応も得ており、この新機能に深い懸念を表明している。
日本でも、子供を守るといいながら、検察、警察権力的になり、反対したことがある。
ちょっとしたことが、大問題になる。
この記事が気に入ったらサポートをしてみませんか?