
絵師界隈での「AI学習」の意味とは?
以前、「ウォーターマーク騒動についての私見」で絵師界隈でのウォーターマークについて取り上げましたが、そこからの流れでそのウォーターマークに記載されている「AI学習禁止」とはどういうことなのか、考えてみました。
まず、以前の記事でも確認していますが、再度「ウォーターマーク」とはなんぞや、という話です。
ChatGPTさんに聞いてみました。
「ウォーターマーク」とは、画像や動画、文書などに透明または半透明で追加されるマークや文字のことです。一般的に著作権を守ったり、オリジナルの所有者を示したりする目的で使われます。たとえば、カメラメーカーやアーティストのロゴ、企業名、または「サンプル」などの文字がウォーターマークとして使われることが多いです。ウォーターマークを付けることで、コンテンツが無断で使用されるのを防ぎ、オリジナルの所有者や制作者を認識できるようにする効果があります。
ちょっと以前の回答とは違う(前の回答は履歴から消えてた)のでもう少し質問してみます。
電子透かしもウォーターマークに入りますか?
はい、「電子透かし」も広義ではウォーターマークの一種と考えられます。電子透かしは、画像や音声、映像などのデジタルコンテンツに埋め込まれた識別情報で、視覚的には見えない形でデータに組み込まれます。通常のウォーターマークとは異なり、目に見える形ではなく、特定のソフトウェアやツールを使って検出できるのが特徴です。
電子透かしは、著作権保護や不正コピー防止、データの追跡といった目的で使われ、デジタルコンテンツの改ざんや不正利用を防ぐ役割を果たしています。
ということで、前回同様広義の意味で言えばかなり広い範囲がウォーターマークと捉えられています。
では、「Glaze」「Nightshade」「mist」などはどうでしょうか?
「Glaze」「Nightshade」「mist」などもウォーターマークに入りますか?
「Glaze」や「Nightshade」「mist」などの技術も、ウォーターマークの一種と見なすことができますが、これらは通常の著作権保護や所有権表示のウォーターマークとは少し異なる目的で使用されています。具体的には、これらの技術は主にAIによるデータ盗用や模倣から作品を保護するために開発されています。Glaze: この技術は、AIが画像を学習して模倣するのを防ぐために使用され、画像の外観に見えない微細な変更を加えます。これにより、AIが正確にスタイルを学習しにくくなる仕組みです。
Nightshade: Glazeに似ていますが、さらに高度な技術で、AIシステムに誤った情報を学習させることで、データ収集の精度を低下させたり、画像の盗用を防いだりします。
Mist: Mistは、デジタル画像に目に見えない変更を加えることで、AIが画像を容易に学習しないようにするための技術です。
これらの技術は、AIが既存の作品を不正に模倣するのを防ぐために用いられるため、広義のウォーターマークに含まれると考えられますが、目的はAI対策やデータプライバシーの保護に特化しています。
ついでに気になったので「広義のウォーターマーク」について質問してみました。
広義の意味でというニュアンスが出てきましたが、これは一般的な認識と差異があるのでしょうか?
その場合、一般的な認識のウォーターマークとはどんなものですか?
はい、一般的な認識の「ウォーターマーク」と、AI対策技術としての「Glaze」や「Nightshade」などを含めた広義の「ウォーターマーク」には、いくつかの違いがあります。
一般的な認識のウォーターマーク
一般的には、ウォーターマークとは画像、動画、文書などに目に見える形で挿入されるマークや文字を指します。主な目的は次の通りです:著作権表示:作品の所有者や製作者を示し、無断使用やコピーを防ぐため。
ブランド表示:企業やアーティストのロゴを入れることで、ブランドの認知を高めるため。
サンプル表示:未購入の画像やコンテンツに「SAMPLE」などの文字を加えることで、商用利用を制限するため。
これらのウォーターマークは、視覚的に分かりやすい形でコンテンツに重ねられるため、見る人に著作権や所有権を明確に伝える役割があります。
広義のウォーターマーク
「Glaze」「Nightshade」「mist」などの技術は、一般的な視覚的ウォーターマークとは異なり、AIや機械学習システムへの対策として開発されました。これらは次のような特徴を持っています:目に見えない操作:視覚的な表示ではなく、データに微細な変更を加えることで、AIが作品を模倣するのを困難にする。
AIモデル対策:データ盗用やスタイル模倣など、AIによる著作権侵害を防ぐため。
デジタルセキュリティ目的:プライバシー保護やデータの追跡などに利用されることもあります。
このように、「一般的なウォーターマーク」は視覚的に認識しやすく、著作権やブランドの保護を目的としている一方で、広義のウォーターマーク(電子透かしやAI対策技術)は、目に見えない形でデータの保護やAIの不正利用防止に焦点を当てています。
おそらく多くの人がイメージする「ウォーターマーク」は前者のものではないかと思います。
この記事としても、ただ「ウォーターマーク」という場合は、この一般的な認識のほうの「ウォーターマーク」を指してると思ってください。
この「ウォーターマーク」騒動ですが、収まる気配がありません。
1周回って当初の目的を完全に忘れたようなものもあります。
しかし、その「ウォーターマーク」で共通していることといえば、「AI学習禁止」、ということです。(もちろんそれ以外もありますが)
この「AI学習禁止」の言葉ですが、どうにも言葉が独り歩きしている感じがします。
私は絵師界隈とつながりが浅いのですが、知り合いの方(絵師界隈にもいる人)と話をしてる中で、AI利用者がいう「学習」と絵師界隈がいう「学習」にズレが有るな、となってきました。
参考資料として、ピクシブ百科事典の「AI学習禁止」のページの『「AI学習」の定義について』から引用します
主にイラスト系の生成AIに反発する人が挙げる「AI学習」について、実際のところは「i2i(image-to-image)の機能の参照元にする行為」「大規模データセット・基盤モデルのための情報解析行為」「画風LoRA(Low-Rank Adaptation)」作成のための比較的少数の情報解析行為」が区別されず混ざっていることが多い。
AI利用者の大半は、学習というのは「基盤モデル」の学習、「モデルのファインチューニング」の学習、「コントロールネットの作成」のための学習「LoRAの作成」ののための学習を指していることが多いと思います。
しかし、絵師界隈ではi2iについても、「学習」の範疇に含んだニュアンスで「学習」という言葉を使っているようなのです。
更に言うと、「AI学習禁止」が実際に何をやってほしくないのかというと、このi2iが最初に来ると思われます。(その次に狙い撃ちLoRA作成)
なので、「AI学習禁止」というのはおおよそ、i2i禁止、狙い撃ちLoRA作成禁止、の意味合いが強いと思っていいようです。
※もちろんそれ以外の学習をよく思ってるという意味ではありません。
正直なところ、これは絵師界隈の「AI学習」に対する解像度不足から起こっているものではあるので、もうちょっと勉強してくれよ、と思わなくもないですが、その認識を広めるのは現状では難しそうです。
では、なぜi2iと狙い撃ちLoRAが特に嫌がられるのか、あくまで主観ですが、これは絵師界隈にあるパクリに対する独自の基準ゆえと思われます。
今までの事件などの例をみるに、法的な著作権侵害とパクリのラインに相当な乖離があります。
今回は別にそのパクリの基準がいいとか悪いとかの話はしませんので、そういう基準がある、とだけ認識してください。
そのパクリに該当しそうなのが、i2iと狙い撃ちLoRAになるわけです。
更に、それは法的な著作権侵害とは違った判断基準で判断されているので、侵害には該当しないケースでもパクリは成立してしまうわけです。
そのパクリ行為に対するヘイトは凄まじいようで、私はそれを想像できませんが絶対悪のように嫌っているわけです。
そのため、絵師界隈から見てパクリ行為に見える(実態は異なったとしても)i2iや狙い撃ちLoRAは絶対にさせたくない行為になるわけです。
そもそもの話として、ほとんどの(国内の)AI利用者は他人の作品をi2iしたり、勝手に狙い撃ちLoRAを作る人はいないと思います。
一部、それで暴れてる人もいますが、それはAI利用者からも嫌われていることがほとんどです。
すこし、話がまとまりませんでしたが、要するに絵師の人たちが「AI学習禁止」と言ってる場合は、主に「i2i」も含めた「AI処理」全般を禁止してると考えてください。
今のところAI利用者側がその意図を汲み取る他ないのかなぁ、と思っています。