![見出し画像](https://assets.st-note.com/production/uploads/images/107627362/rectangle_large_type_2_64441e912fd3986b2092a6bc0e3392ee.png?width=1200)
着衣画像が児童ポルノに該当するおそれがあると判断された件
経緯
イラストレーターの作品を無断で学習させたLoRAを販売できることで、イラストレーターの権利侵害の危険を指摘されていたpetapiですが、ここで書くのはそれとは関係ない、作品の公開場所として利用した際に経験したことです。
自分で作成した画像を公開したところ、うち3枚が凍結処分を食らいました。他の画像は凍結されていないのに、なぜ3枚だけ凍結されたのか?
利用規約を見ても、心当たりはありません。
運営からの回答
理由に悩んでいたところ、運営から回答が来ました。要約すると、
・児童ポルノに該当するおそれがあるから凍結した
・調査の結果該当しないと判断したから解除した
ということだそうです。おそらく「公序良俗に反する行為」「他人に不快感を与える表現を含む情報」のいずれかに該当すると判断されたのだと思います。
問題の画像
凍結された画像をご覧ください。
![](https://assets.st-note.com/img/1686136328487-fQBLr1Fu5P.png)
![](https://assets.st-note.com/img/1686136377706-WYdwiBf2tb.png?width=1200)
![](https://assets.st-note.com/img/1686136420477-agJzFWbjyt.png)
確かに顔は子供っぽいのですが、ちゃんと服を着ています。年齢設定のプロンプトは、すべて「20 years old」です。
性的なポーズをとっているわけでもないし、挑発しているわけでもありません。ポルノ要素ゼロであると、自信をもって言えます。
それでも児童ポルノに該当するおそれがあると運営は言います。
「着衣の児童ポルノ」とは聞いたことのない概念です。
利用を考えている方へ
AIが児童ポルノに該当するおそれがあると判断したから凍結した、ということなんでしょうが、AIは着衣と児童ポルノを区別できないのなら、今後も同じことが繰り返されることになります。
もしそうなったとしても、AIが判断した後に人の目実際に見ていれば、凍結解除なり回答なり、もっと早く対応できるのではないかと思います。
自分はLoRAに学習させることができる環境はないため、LoRAを販売するつもりはなく、単に「公開場所」として利用しようと思っていたのですが、このような対応では今後も心配がつきまといます。
これから利用しようと思っている人は、「着衣でも児童ポルノと判断されてしまう危険性」を考慮した方がよいと思います。
以上