見出し画像

フェイクポルノの今

アイコラ時代と何が違うのか

 生成AIによるフェイクポルノについての議論では、必ずと言ってよいほど「昔からアイコラはあった」という意見があがります。
 両者はたしかに似ている部分も多いですが、異なる部分もあります。
AI技術を用いたフェイクポルノは

  • スマートフォン一台で簡単に、短時間で作れてしまう

  • 画像だけでなく動画や音声の被害もある

  • 個人情報や地域などがわかる元画像の情報が残っているケースもある

 といった点などアイコラの被害と完全に同一視することはできません。
 画像加工ソフトでの加工は慣れていない人が作ったものは一目でコラージュだとわかりますし、画像1枚を作るのにも時間がかかります。
 しかし今主流のヌードフェイクは、スマートフォンと画像さえ用意できれば誰でも作れると言っても過言ではありませんし、生成される画像の質もどんどんリアルになってきています。
 また画像だけでなく動画や音声など、偽造できる範囲は増えてきています。

女性だけの問題ではない

 私の観測範囲では、ディープフェイクポルノの被害にあっているのは女性が多く、これはアイコラのときと変わらない傾向だと思います。しかし、フェイクポルノはけして「女性の権利の問題」というレイヤーだけで語ることができる問題ではありません
 たとえば性的加害をしている動画を作られたり、本来の自分とは異なる性的指向を持っているかのような画像を捏造されたりすれば、性別に関わらず社会的なイメージが大きく低下する可能性があります。
 また性的な指向や、どういった服装をするかは、信仰や信条に関わることであり、仮に『フェイク』と書かれていたとしても、アイデンティティを傷つけるものだと思います。

現行法で対応が可能なのか

私たちが実際に発見し通報した事例ですが

  • 未成年女性の着衣画像を素材にした上半身ヌードのコラージュ

  • 1000名以上がグループに入っているSNS空間での投稿

というケースで、実際に警察にご相談にいったケースでは

『コラ』と書かれているので名誉棄損にあたらない
身体部分は画像なので児童ポルノにあたらない
招待者しか入れないから不特定多数への公開ではない

→刑事事件として扱えないので肖像権の侵害で民事的に解決することを警察に提案されたとご連絡がありました。

 ご存じの方も多いと思いますが未成年は民事訴訟の訴訟能力を有しない存在です。本人でなく保護者が訴訟を起こさなければ、自らの法的な権利侵害を訴え出ることができない、法的弱者です。
 開示請求は2~30万円程かかってしまうことも珍しくないのですが、開示請求を行ったからといって100%投稿者を特定できるわけでもありません。
 数十万円という金額は「ダメ元」で払うにはかなり大きい金額だと思います。経済状況や保護者の考え方によっては民事訴訟をしない、できない家庭もあるでしょう。
 また、成人だとしてもそれだけの費用を出せない状況の人は、被害を泣き寝入りすることになってしまいます。
 私は、現在の法律では被害者を守ることができないと感じています。

無断で性的コンテンツ化して販売するのはあきらかな性的搾取

 ○○円で画像を裸に加工します
 ○○円でコラ画像数千枚見放題です

 一部のSNSではヌードフェイクポルノが、あるいはそれを作る行為が売買の対象になっています。
 自身の画像がそんなことに使われていると気づいたり見つけ出すことは容易ではありません。それをいいことにフェイクポルノ製作者たちが金儲けをしている現状を野放しにしてよいのでしょうか。
 許可なくディープフェイクポルノを作り販売することはまぎれもない性的搾取であり、人権侵害だと私は思っています。
 私たちは一人一人が意思をもつ存在です。勝手に性的な画像を作る行為は、意思を無視し着せ替え人形のようにモノとして扱う行為です。
 学校や家庭で、大人は子供たちに他者の性的尊厳を尊重しましょうと教えています。その一方でフェイクポルノが氾濫しビジネスになっている現状を放置するのであれば、それは本質的なところで我々の社会は性的尊厳を尊重していないというメッセージになるでしょう。

社会がすべきことは何なのか

 まず最低限未成年の画像を性的に加工して投稿することについて民事でなく刑事で扱えるような法整備が必要だと考えます。
 またディープフェイクのプログラムの中には、未成年の可能性が高い被写体については加工ができないものもあります。そうした基準をクリアしていないものはアクセスを制限するような措置があってもよいのではないかと思います。
 被害がおきてしまった後の被害者支援も重要です。これは盗撮やリベンジポルノ等でも同じですが、被害者は自分の被害画像・動画をネット上から1つ1つ探して削除申請していく必要があります。
 ここ数年で、民間のボランティア団体や企業による削除支援のシステムがでてきましたが、これをもっと広く公的な機関が行うような制度になるとよいのではないかと思います。

おわりに

 私自身、翻訳などでAI技術を日常的に活用する機会が増えてきていて、AI技術そのものが悪いものだとはけして思っていません。
 しかし、現状技術を悪用し人権侵害や性的搾取がおきてしまっていることは紛れもない事実です。実際に被害にあった方の話をきくと、現行法で対応できるというのは『できる場合"も"ある』というのが現時点の正確な状況ではないかと感じます。
 AI技術は私たち大人にとっても未知の技術であり、私たち一人一人が規範やルールを作っていく当事者です。良い形で社会に取り入れていくためにも、法整備や教育の拡充が不可欠だと考えます。


いいなと思ったら応援しよう!