「これで何度目?」またも "児童ポルノ" という欠陥単語の拡大解釈が行われる
今度はAI児童ポルノだそうです
何か新しい表現手段やテクノロジーが定着する度に同じことの繰り返しになっている気がするが、またしても「児童ポルノ問題」が浮上している。
少し前には "CG児童ポルノ" という頭痛が痛くなるような単語が報道の場に飛び交っていたし、元を辿って行くと「写実的だからダメ」と警察に言い張られて負けた松文館裁判などにも似たような問題点が根っこにある。
このnoteでもこの手の「児童ポルノにまつわるインチキ話」を何度書いたことか……。
こんな調子で何かある度に新しい児童ポルノを生み出す人々が新たなターゲットに選んだのは、今流行りのAI生成画像だ。
この件については「ふざけんなバーーカ」と切って捨てたい部分が大半なのだが、実は「それは確かに問題がある」と頷ける部分の2部構成となっていて少々厄介。
まずは何年も前から言い続けている、完全に言い飽きたツッコミから入れさせていただこう。
AIによって生成された画像のどこに虐待や被害者が?
まずは何を言うにも "児童ポルノ" や、記事中にある "児童性虐待画像" という単語の定義から固めねばなるまい。
これまでは頑なに "児童ポルノ" という単語を使い続けるのがこの手の記事のお約束だったが、今回は珍しく "児童性虐待画像" と少しマシな文字列が使われている。
ところが、これによってインチキ度合いが更に増してしまっているのがチャームポイント。自分で「AIによって生成された」と言っておいて、どの口が児童性虐待画像などと言うのだろうか。この記事の見出しの時点で矛盾していることに気付かないのが不思議で仕方ない。
いい加減に言葉を軽く使うのをやめろよ。それによって「人によって単語に対する解釈や認知にズレが生じて話が進まなくなる」のだといい加減に学んで欲しい。
児童性虐待画像というならば、その画像が作られた背景に性虐待被害に遭っている児童の存在がなければいけない。ところがAI生成ということは、現時点ではAIが学習したであろう無数の元画像を辿っても、ガチの児童性被害画像はごくごく少数であると考えるのが現実的だ。
こうやって "誠意ある言い方" をすると「0じゃないなら被害者がいるではないか!」とバカが大騒ぎするので嫌なのだが、ウソが付けない性分なので仕方ない。「0ではないけれども、限りなく "無い" と言っていい状況だ」としておくのが無難かつ確実な線だと思う。
なんせ、何年も前からガチの児童性被害画像(いわゆる児ポ)は、Googleなどに厳しくブロックされている。そのため、アングラな場所でイタチごっこ的にやり取りされている物はあるにしろ、広大なネット空間の割合でいえばごくごくごく一部とするしかない。
であるならば、AIの学習元になっている可能性はなくはないが、こちらの割合で言っても非常に小さなものになると考えるのが当然であろう。
それよりはロリ系の絵師やCG職人の作品を丸パクリするとか、実在アイドルと幼児体型のAV女優の画像を悪魔合体させるといった権利問題の方が、よっぽど深刻だと思われる。
いまどきのAIが学ぶ元(というか食わす餌とでも言うべきか?)というのは、ガチ児ポとかではなく、こうした合法的な作品の組み合わせが殆どと考えるべきである。
その理由は繰り返しになるが「圧倒的なリーチの容易さ」だ。
こうした点から逃げを打つために、児ポ規制派は必ずこう言う。
正直ここが論理飛躍なんだけれども、「思いつきから合成」と「現実の子供への虐待」というのは非常に遠い。むしろ、こうしたCGなりAI生成画像なりにすがりつくタイプではない人間の方が、児童を虐待しているケースは多いのではないだろうか。
たとえば世界的に言えばカトリックの神父、実父・実母、シン母が連れて来た男、教師、警察官……。ニュースに加害者として登場する人間の肩書というのは、大体がこんなところだろ?
ではまずキリスト教を禁止しよう。次に教師や警察官が子供に接触できないようにしよう。また子供を持つ親、特にシングルマザーには監視をつけよう。
そっちの方がポルノ画像を取り締まるより、よほど被害児童を減らせると思うが。
参考までに、この手のAI画像の話に疎いという方は、どういうことなのか理解するのにこのひとの記事がとても分かりやすいと思う。言葉は悪いけれども "亡くした奥さん" というテーマがあるので、すんなり理解できるはず。
ここから先は
¥ 500
Amazonギフトカード5,000円分が当たる
皆様からの金銭サポートがあると、子育てに追われる哀れなオッサンの生活がいくらか楽になると思わせておいて、息子の玩具やお菓子や遊園地代で殆ど溶けます。