![見出し画像](https://assets.st-note.com/production/uploads/images/121654241/rectangle_large_type_2_b7a484052b4f2ba64ef2653657b9da65.png?width=1200)
【ついにニュースに】読売新聞:生成AIで作成された児童の性的画像、国内サイトに大量投稿【AI絵師 児童ポルノ問題】
【毎月3000点以上】生成AIで作成された児童の性的画像、国内サイトに大量投稿https://t.co/Yl4alpASmE
— ライブドアニュース (@livedoornews) November 11, 2023
サイトには実写の「児童ポルノ」と区別がつかない画像が推計で毎月3000点以上投稿され、海外からの閲覧が目立った。愛好者が規制が甘い日本のサイトに集まっているおそれがあるという。 pic.twitter.com/KuRgObHgjZ
みんなの反応まとめ
AI画像を規制したら海外に負けると言い続けた国の末路 https://t.co/vPl84iU32B
— 山口山田山 (@yama71715704) November 12, 2023
あーあ、言わんこっちゃない
— 宇宙usa61 (@usa61_usa61) November 12, 2023
現状の生成AIは学習元の画像がそのまんま出て来て問題になってる事を知ってくれ
そして実写と区別がつかない児ポ画像が出てくるって事はそういう画像が大量に使われてるって事を理解してくれ
架空の人物でもなんでもないんよ https://t.co/KKl1g3u2gV
児童ポルノが出力できるのは
— 夏草 (@natukusaex) November 12, 2023
本物の児童ポルノが学習されているからだ、
それだけではなく、本物と区別がつかない、という事は本物が大量に混ざっていてもわからない、
外国人が児童ポルノをやり取りする場所として使われれば、
日本のイメージダウンにも繋がる話だ、
まとめて規制されかねない。 https://t.co/NKJkGdKkwR
世界一性犯罪に甘いニッポン❗️性犯罪者の温床❗️ https://t.co/qqjk9eYbQr
— ネガティブの権化🇵🇸🕊️ (@negative_gonge) November 12, 2023
学習素材に「本物」が含まれている、
学習素材に「本物」が含まれている、
— ななしき💉💉💉💉📶 (@skykid2020) November 12, 2023
大量のフェイク生成画像を「本物」のカモフラに利用しているなどの問題があるので、非実在だから問題ないとは言い切れない https://t.co/Xq7EXYS5Um
うわ…
— AIについてちゃんと考えようぜ! (@gjmdwtjg) November 12, 2023
AIでってことは学習元に実在児童ポルノが使われた可能性があるということですよね…
気持ち悪い…
二次元ロリも巻き添えくらうんじゃないですか?
二次元ロリ絵描きの方も無断学習AIについて調べたほうがいいと思います https://t.co/2GDm5kigAW
一年以上前に流すべきニュースだった
一年以上前に流すべきニュースだった
— 中華BL中心閲覧用 (@nolookupthemoo_) November 12, 2023
被害者が女子供だとニュースにあがるのはいつも大量の被害が出たあと、その手の男性たちがとことん享受したあと
でも権力者が被害者になると数日で逮捕の茶番社会 https://t.co/M01zHVtchg
結局総理動画もなんの規制もないからだしな
— らっど《捕獲レベル101》skeb (@RADnoakaunto) November 11, 2023
これの恐ろしいのは、合成技術が無くても、AIが勝手に作る所なんだよな。子どもを盗撮して、服を脱がした画像も作れるし、どこで被害に遭うか分からない。それと、実写を使ってる時点でもうそれ、架空じゃねぇからな。被害者出てるし。 https://t.co/isFRYIK5eL
— 🤮🌈🗑(ログアウト中) (@hakidasugero) November 12, 2023
【間違い】存在しない児童のポルノで性欲発散出来て治安改善するのでは…?
これは逆に存在しない児童のポルノで性欲発散出来て治安改善するのでは…?
— 都知事𝕏10/28帰阪 (@xdegenkinokure) November 11, 2023
生成AIに偽装して元データにリアル少女がいる
生成AIに偽装して元データにリアル少女がいる
— かしわぎchねる (@teat9001) November 12, 2023
しかし、学習元には実際の児童がいるのが重大な問題。ゼロから作り上げられなかったのがなんとも残念。
— MNT24🏳️⚧️ (@mnt0014) November 12, 2023
存在する児童の画像が素材に利用されているのを理解して言ってんの?
存在する児童の画像が素材に利用されているのを理解して言ってんの?
— mememenme (@mememenme) November 12, 2023
日本の現状を見ると、むしろ逆だと思います。
— Onigon (@Onigon_) November 12, 2023
AI生成は無から有を作り出す技術ではない。 必ず学習元がある。
AI生成は無から有を作り出す技術ではない。
— Dorami (@Dorador87405862) November 12, 2023
必ず学習元がある。https://t.co/jtenmpImwr
これから法を作る全ての人たちは、
— Dorami (@Dorador87405862) November 12, 2023
「生成AIが作ったものは児童ポルノではない」
「被害者はいない」
と公に述べる人たちの投稿内容をよく見て判断してほしい。
ようやくニュースになりましたね
ようやくニュースになりましたね
— AIのこと (@AInokoto1029) November 12, 2023
少しずつ生成AIの問題点が周知されてきています
児童の画像が出るということは生成AIに初めから入っている基本データに児童の画像が含まれているということですし、本物と見分けが付かない画像が出回ることで実際の被害写真の摘発ができなくなる恐れがあります https://t.co/EwDndooENm
本物の児童ポルノもってて捕まっても「AIに作らせました!」って言ったら逃げられない?
— わさび@高校生ブロガー (@karaagekunkyou) November 12, 2023
相手がAIだし難しいですね。日本が甘すぎるのが問題
— ちぇしゃ🐾cheshire cat (@cheshirecatyeah) November 12, 2023
なんか 「生成AIで出力されるのは本物では無い。 被害者はいない」 等と言ってる人が見受けられるけど
なんか
— カムイ(ウララを有馬で勝たせた類) (@kamui_Arisawa) November 12, 2023
「生成AIで出力されるのは本物では無い。 被害者はいない」
等と言ってる人が見受けられるけど、データセット等の学習されたデータに
「本物」
がある以上、限り無く本物に近い、或いは本物同然の生成物が出てくる可能性を100%否定出来んのだぞ……?
いつ誰が被害者になるか分からんのだぞ? https://t.co/dP2Cv47k3u
ここまで来るとガチ規制されても可笑しくないよね、人類の英知がエロ悪用する小悪党のせいで台無しになるとか最悪やん
— 万華庵:EP至高 (@mangekaren) November 12, 2023
学習元が実在児童なんだから逮捕でよくない?
学習元が実在児童なんだから逮捕でよくない?
— 銀 (@hyperinkya) November 11, 2023
絵と違って実際に学習された被害者いるんだし https://t.co/muwlrnYQfa
「被害児童はいません」が使えませんからね。
「被害児童はいません」が使えませんからね。実在児童や、実写児童ポルノを元に生成しているのが実態ですから。 https://t.co/Z4iTAHu2uo
— 鐘の音(除夜の鐘)ダイエット-30kg (@kanenooto7248) November 12, 2023
まさか岸田総理のフェイクAIから
— 猫宮杏子(あんず)・音声サークル主 (@nekomiya_anz) November 12, 2023
生成AIの児童ポルノの捜査に行くとはなんと言う伏線……… https://t.co/I3NhV2Jtku pic.twitter.com/E2B3zAL55G
生成AIで児童???って思ってる人はこういうアカウントを参照してみろ
恐らく生成AIで児童???って思ってる人いるでしょう
— nyama🐰プロ妖精ぺぺやま(見習い)☮️⚛️🦄 (@piccopignola) November 12, 2023
こういうアカウントを参照にしてみればいいhttps://t.co/JbHQAfCOXh https://t.co/DhROSwmgD0
こんばんは☆彡 今日の暑さにはびっくり!思わず夏物のノースリーブと短パンになっちゃったよ🌞 11月にしては暑すぎるよね?みんなも夏服でOK!#秋どこいった #暑い冬 pic.twitter.com/S4HBwSXb4B
— コンポタ (@mafukome) November 4, 2023
![](https://assets.st-note.com/img/1699914956230-5f0oS3FA0M.png)
こういうので「AIで非実在だから犯罪抑制になっていいんじゃない?」という人はディープフェイク含め自分は被害者にならないという安心があるから言えるんだと思う
— ヨンマールさん(403号室) (@403goushitu) November 12, 2023
自分の子や家族友達が勝手にAI児ポの素材にされて商売されてたら作ったやつブッコロリしてやりたいと思うけどね https://t.co/h8P9OYG0yz
これ作成先が問題みたいな雰囲気だけど、問題視しないといけないのは学習先だと思うんだ…… https://t.co/Qf5YlcYUDk
— くーや (@july_is_eve) November 12, 2023
これが国が推進しまくった結果である。
これが国が推進しまくった結果である。 https://t.co/30DIsqb86K
— 煉切 (@tukimishira) November 12, 2023
児童ポルノだけは本当にやめよう。
— 仁清 (@UnFearable) November 11, 2023
AIだから…
なんて言ってると
その内リアルとの区別がつかなくなった奴が事件を起こすんだよ。#児童ポルノ #AI #規制 https://t.co/w93ZN1CIou
所詮は創作物だし、作ること自体は個人の自由じゃねって思うけど
— パッチ@ハクスラ&クラフト探究者 (@patch_akiraiden) November 12, 2023
閲覧制限のないpixivとかで誰でも観れちゃうのは流石にまずい気はする。
ぶっちゃけ18以上ですかの質問で「はい・いいえ」選択するだけのやつも18未満がはい押せちゃう時点で全然機能してないし、その辺のシステムも見直して欲しい https://t.co/A8fPa7uXUP
やはりAIを使うなら学習の元になったデータも公開すべきだと思います。
実写と区別がつかないのだとするとAIの学習データに実在児童の写真が使われている可能性のほうが心配だな。 https://t.co/HEGI9wVuFc
— うるの拓也@カソクキッズ連載再開中 (@takuya_uruno) November 12, 2023
これ、実写の犯罪画像・映像を「生成AIですから」と言い逃れしているケースもあるかもしれませんね。
— Vector 🇯🇵🇹🇼(六四天安門) (@tdi_vector) November 12, 2023
ああ、そっちもあり得ますね。やはりAIを使うなら学習の元になったデータも公開すべきだと思います。
— うるの拓也@カソクキッズ連載再開中 (@takuya_uruno) November 12, 2023
まったくそのとおりです。そんな画像が生成できる理由は自明でしょうにね。AIアイドルの写真集が問題になったのもそもそもは学習データとして肖像権の侵害の可能性からですし、実在児童の肖像権が侵害されていると見るべきでしょう。
— くりひろし@「パソコン・レクチャー」連載中!(電子工作マガジン/電波新聞社) (@kurihiroshi) November 12, 2023