reference-only
ちょっと今回は短めになるかもですけどかなり使い勝手がいいControlNetのreference-only機能について解説したいと思います
すでにある程度stable diffusionを使用しているとLoRAとかいう単語を聞いたことはあると思います。LoRAとは追加学習のことでわかりやすく言うとmodelで覚えていないプロンプトの特徴を加えることができる機能ですね。
悪用しようとすればイラストレーターの絵柄や版権キャラを利用することもできてしまいますが大切なのは使う側のモラルです。AI絵やLoRAが悪いわけではありません。使ってそれを公開する側にすべての責任はありますのでみなさんも重々気をつけてAI絵だけに限りませんが表現物を公開するときは気をつけましょう。LoRAもmodelもライセンスはちゃんと読みましょう。もちろん版権物ならそのガイドラインもね。(一番大切なのは法律だけど)
話がそれてしまいましたね。そんな形でLoRAを使用すると塗り方の特徴を反映させたり、キャラプロンプトで読み出せるようになります。
ただ、そのLoRAが公開されていなかったりたまたまプロンプトで作成したキャラがとても良いのだけど構図が気に食わなかったり別バージョンを見てみたいというときがよくあると思います。
そんなときに便利なのがreference-onlyですね。
まずはその参照にしたい絵を用意します。
では今回は適当に作成したドラゴンの絵を使ってみますかね。
この絵をt2iのCN(ControlNet)に貼り付けます。
あとは上記のような設定にすればOK。最近CNのアップデートが入ってControl Typeって設定でワンボタンである程度の設定を適当に選んでくれるようになりました。初心者が使いやすくなってきましたね。
ではプロンプトはその画像を作成したものでいいです。
小ネタ:画像からプロンプトを読み出したりAIにその絵を解析してもらう
知っていると知っていないとで地味に差が出ますのでここで小ネタです。
自分で作成したAI絵や他の方が投稿しているAIにメタデータが埋め込まれている場合、「PNG内の情報を表示」タブを開きそこに画像を読み込ませることでその情報を取得できます。
もう一つのやり方が「img2img」タブに画像を貼り付けてAIにその絵からプロンプトを解析してもらうやり方です。解析というよりもAIならこの絵を作るときなんて入力するか?みたいなものを出してくれます。
やり方は「img2img」タブに画像を貼り付けて、「CLIPによる解析」or「DeepBooruによる解析」をクリックしてください。
CLIPは英文のような形式で表示され、DeepBooruは普段私達が利用するような単語単位で出してくれます。こういう写真みたいな構図で作りたいのに指定の仕方がわからない!とか服の種類がわからない!日本語はわかるけど英語だとなんていうの!ってときにものすごく役に立ちますのでまじで覚えて帰ってください。
reference-onlyに戻る
ではreference-onlyに戻ってプロンプトは作成したときと同じもので解像度もその元絵と同じにしといたほうが無難だ。
で作成した絵がこんな感じ竜騎士になっちゃったね…。なぜかというと実は元絵が竜騎士作成しようとしてたときの失敗作でドラゴンがうまれてしまっていてそのままのプロンプトでやったからですね。「Armor, helmet」が入ってしまっているからこんな感じで赤い翼、ビルの背景、屋上みたいな絵の特徴を勝手に理解しつつその絵に「Armor, helmet」を加えた絵ができたってことなんですね。
このように下絵の特徴+αの絵を作成するときにも便利ですので使ってみてください。
ただ、今回作成したいのはドラゴンですので「Armor, helmet」プロンプトは消してしまいましょう。もう一度消してから作成。
ちゃんと似たような構図のドラゴンが作成できましたね!
てっとり速くいい感じの絵がほしいならこの作業をひたすら繰り返していい感じの絵を選ぶだけで大丈夫です!
プリプロセッサによる違い
reference-onlyのプリプロセッサは3つあります。今回はそのプリプロセッサだけを切り替えてどのような差が出るかを見てみましょう。
元絵>reference-only>reference_adain+attn>reference_adain
の順で絵が似ているようですね。
どのくらいその絵に寄せたいかで使い分けるといいんじゃないでしょうか?
今回は短くなりましたがこのへんで終わりたいと思います。
次回は何にしましょうか?要望があればコメント書いてくれると解説したいと思いますので気軽にコメントもいただけるとやる気出ます!
あとがき
今日の表紙絵はこちらになります。カタログみたいな表現で好き。