見出し画像

NovelAI Diffusionを使ったComfyUIの画像生成を考える2

はじめに

前回はいかに負担を下げてモバイル機器でも生成できるようなワークフローを構築しようと思いSD1.5を使用したのだが、今回はPony V6を使うことにした。ついでにワークフローのアップデートをしようと思う。このワークフローはSDXL1.0系統ならモデルやプロンプト、LoRAさえ最適化すればほぼ弄らず流用できる。その他のベースのモデルであっても、基本的にVAE EncodeからSamplerを繋げればNAI Diffusionの生成の過程をコピペできる。
ちなみに前回の記事はこちらからアクセスできる。
NovelAI Diffusionを使ったComfyUIの画像生成を考える|詠唱新田

ワークフローの修正

前回のワークフローは流れを重視していたのだが、あまりユーザーフレンドリーでない設計だと思った。中央にプロンプトを置いて分かりやすくしようと試みたが、実際はGenerate ✒️🅝🅐🅘やKSamplerが目立ってしまっていた。今回は詳細設定を全て右に寄せるなどの対策を行った。

ワークフロー配布

使い方

  1. このnaid_workflow_00010.jsonのワークフローをComfyUIに読み込む

  2. NovelAIのi2i機能などを使いたい方は、NovelAI Diffusionノードのoptionのインプットに任意のノードを配置する。(使わない場合は無視して良い)

  3. 紫色の"Model"を確認し、使用したいモデルが使えるか確認する。

  4. 橙色の"解像度"を確認し、64の倍数になるように意識しながら解像度を決める

  5. 緑色の"LoRA(Stable Diffusion)"を確認し、使用したいLoRAを設定する。必要に合わせてLoad LoRAノードを増やしても構わない。

  6. 緑色の 描きたい要素 (プロンプト)を記入する。品質プロンプトはStable DiffusionでPony v6などモデル特有の"score_9, score_8, score_7_up,"などの独特な品質プロンプトを書くために存在する。

  7. 赤色の 除外したい要素(ネガティブプロンプト)を記入する。記入しなくても一応生成できる。

  8. 薄橙色の"VAE"を確認し、使用したいVAEが使えるか確認する。

  9. 詳細設定を決める。知らなければスルーしても構わない。

  10. "完成したイラスト+ イラストの名前を決める"を確認し、必要であれば名前を変える。

  11. 生成!

いいなと思ったら応援しよう!