NovelAI Diffusionを使ったComfyUIの画像生成を考える2
はじめに
前回はいかに負担を下げてモバイル機器でも生成できるようなワークフローを構築しようと思いSD1.5を使用したのだが、今回はPony V6を使うことにした。ついでにワークフローのアップデートをしようと思う。このワークフローはSDXL1.0系統ならモデルやプロンプト、LoRAさえ最適化すればほぼ弄らず流用できる。その他のベースのモデルであっても、基本的にVAE EncodeからSamplerを繋げればNAI Diffusionの生成の過程をコピペできる。
ちなみに前回の記事はこちらからアクセスできる。
NovelAI Diffusionを使ったComfyUIの画像生成を考える|詠唱新田
ワークフローの修正
前回のワークフローは流れを重視していたのだが、あまりユーザーフレンドリーでない設計だと思った。中央にプロンプトを置いて分かりやすくしようと試みたが、実際はGenerate ✒️🅝🅐🅘やKSamplerが目立ってしまっていた。今回は詳細設定を全て右に寄せるなどの対策を行った。
ワークフロー配布
使い方
このnaid_workflow_00010.jsonのワークフローをComfyUIに読み込む。
NovelAIのi2i機能などを使いたい方は、NovelAI Diffusionノードのoptionのインプットに任意のノードを配置する。(使わない場合は無視して良い)
紫色の"Model"を確認し、使用したいモデルが使えるか確認する。
橙色の"解像度"を確認し、64の倍数になるように意識しながら解像度を決める。
緑色の"LoRA(Stable Diffusion)"を確認し、使用したいLoRAを設定する。必要に合わせてLoad LoRAノードを増やしても構わない。
緑色の 描きたい要素 (プロンプト)を記入する。品質プロンプトはStable DiffusionでPony v6などモデル特有の"score_9, score_8, score_7_up,"などの独特な品質プロンプトを書くために存在する。
赤色の 除外したい要素(ネガティブプロンプト)を記入する。記入しなくても一応生成できる。
薄橙色の"VAE"を確認し、使用したいVAEが使えるか確認する。
詳細設定を決める。知らなければスルーしても構わない。
"完成したイラスト+ イラストの名前を決める"を確認し、必要であれば名前を変える。
生成!