見出し画像

そうだ!AI画像生成をちゃんと勉強しよう💡11章:ControlNet その2

ControlNet「IP-Adapter」「Lineart」

※勉強するのはStable Diffusion、SeaArt系になります。

前回コントロールネットの楽しみを覚えてしまったので、他の種類も全部試してみたくなってしまいました。
とは言っても、時と場合を選ぶものが多いようなので概要をさらっと学んで実践を一通りできたら良しとします。
前回勉強した4種類以外でSeaArtガイドブックで解説されているものの中で今の自分の環境でもできるものは10種類あるのですが、
「IP-Adapter」「Lineart」の2つを勉強したいと思います!

今日も等身大の私ですよろしくお願いします(*⩌⩊⩌*)




まだまだあるControlNetの種類

赤枠で囲まれているものを今日から終わるまで学びます!
概要を軽く理解したら実践をどんどんしていきたいと思います。
下のスクショの「IP-AdapterからTile」までの全10種類です。


IP-Adapter


参照した画像の芸術的なスタイルや内容を認識し、類似の画像を生成することができる。
他のControlNetと連携して使用することもできる。

IP-Adapter特有のパラメータ


・Resolution

画像がどれだけ詳細に解析されるか、そしてその情報が生成される画像にどのように適用されるかを決定します。
解像度を高く設定すると、リファレンス画像(参照画像)の細かいディテールがより正確に反映されますが、処理に時間がかかることがあります。
逆に、低解像度に設定すると、全体的な形や色合いが強調され、細部はぼやけた感じになることがあります。

・WeightType

リファレンス画像から取得された情報がどのように適用されるかを決めるものです。私の環境だと14種類あります。

  • Normal

  • Ease In

  • Ease Out

  • Ease In-Out

  • Reverse In-Out

  • Weak Input

  • Weak Output

  • Weak Middle

  • Strong Middle

  • Style Transfer

  • Composition

  • Strong Style Transfer

  • Style and Composition

  • Strong Style and Composition


これらのWeightType設定を使い分けることで、リファレンス画像がどのように新しい画像に反映されるかを細かくコントロールできます。


IP-Adapterを使ってみる


さきほどリストアップした14種類を試していきたいと思います。
リファレンス(参照)画像として絵柄に特徴があるこちらの画像を用意しました。

モデル:Inkpony
プロンプト:ダンスを踊っている王女

リファレンス(参照)画像

この画像を基にIP-Adapterを実行してみます。
使用するモデルは「awpainting」です。こんな感じの画像ができるモデルです。
プロンプト:
1girl,correct limb,short ponytail,red hair,(sleeveless kimono:1.1),fox ears,posing,looking_at_viewer,top quality,highres
(1ガール,正しい手足,ショートポニーテール,赤毛,(ノースリーブ着物:1.1),キツネ耳,ポーズ,ルッキング_アット_ビューアー,最高品質,高画質)

ベースにする画像

コントロールネットを有効化して「IP-Adapter」を選択し、リファレンス画像をアップロードしました。


1. Normal

  • 概要: 基本設定です。リファレンス画像の影響を通常の強度で反映させます。

  • 使い方: 画像生成において、特別な調整を行わずにリファレンス画像を使用したい場合に使用します。


2. Ease In

  • 概要: 画像生成の初期段階でリファレンス画像の影響を徐々に強めていきます。

  • 使い方: 徐々にリファレンス画像の特徴を取り入れたい場合に使用します。


3. Ease Out

  • 概要: 画像生成の後半にリファレンス画像の影響が徐々に減少します。

  • 使い方: 生成の終盤に向けてリファレンス画像の特徴を抑えたい場合に使います。


4. Ease In-Out

  • 概要: 画像生成の初期段階と終盤でリファレンス画像の影響を強め、中間で緩やかにします。

  • 使い方: 初期と終盤にリファレンス画像を強調したい場合に使います。

5. Reverse In-Out

  • 概要: Ease In-Outの逆で、中間部分でリファレンス画像の影響を強め、始めと終わりで影響を弱めます。

  • 使い方: 中間にリファレンス画像の特徴を集中させたい場合に使います。

6. Weak Input

  • 概要: リファレンス画像の影響を弱くして、他の要素を強調します。

  • 使い方: リファレンス画像の特徴を抑えたい場合に使います。

7. Weak Output

  • 概要: 出力画像にリファレンス画像の影響を少なくします。

  • 使い方: 最終的な画像にリファレンス画像の影響を控えめに反映させたい場合に使います。

8. Weak Middle

  • 概要: 画像生成の中間でリファレンス画像の影響を抑えます。

  • 使い方: 画像生成の過程で、ある程度自由度を持たせつつ、最終的にリファレンス画像を強調したい場合に使います。

9. Strong Middle

  • 概要: 画像生成の中間でリファレンス画像の影響を強めます。

  • 使い方: 中間でリファレンス画像を最も強く反映させたい場合に使用します。

10. Style Transfer

  • 概要: リファレンス画像のスタイル(色合いや雰囲気など)を新しい画像に適用します。

  • 使い方: 生成する画像にリファレンス画像のスタイルを移したい場合に使います。

11. Composition

  • 概要: リファレンス画像の構図を重視し、全体の配置や構造を新しい画像に適用します。

  • 使い方: リファレンス画像の構図を保ちながら新しい画像を作成したい場合に使います。

12. Strong Style Transfer

  • 概要: リファレンス画像のスタイルを非常に強く適用します。

  • 使い方: リファレンス画像の雰囲気や色彩を全面的に反映させたい場合に使います。

13. Style and Composition

  • 概要: リファレンス画像のスタイルと構図の両方を適用します。

  • 使い方: スタイルと構図の両方を新しい画像に反映させたい場合に使います。

14. Strong Style and Composition

  • 概要: リファレンス画像のスタイルと構図の影響を強く反映させます。

  • 使い方: リファレンス画像に非常に忠実な新しい画像を作りたい場合に使います。

使い道が結構ありそうなCheckpointですね!
この絵をあの絵柄にしたい、とかあの絵柄を少し混ぜたいなぁ
みたいなときに重宝しそうです✨


Lineart


線画(線だけのシンプルな絵)を元にして、詳細な画像を生成することができる。

Lineartの種類


私の環境では、「Preprocessor」にはLineartが6種類あります。
このプリプロセッサを使い分けることで、生成する画像のスタイルやクオリティを細かく調整できます。

  • lineart_standard (from white bg & black line)

  • invert (from white bg & black line)

  • lineart_realistic

  • lineart_coarse

  • lineart_anime_denoise

  • lineart_anime

Lineartを使ってみる


ラインアート6種類を実際に試してみたいと思います。
1,2は白黒の線画、3,5,6はアニメ風の画像、4はラフスケッチを基に画像を生成します。

1,2の元画像
3,5,6の元画像
4の元動画


1. lineart_standard (from white bg & black line)

  • 概要: 白い背景と黒い線で描かれた標準的な線画を認識して処理するプリプロセッサーです。

  • 使い方: 通常の線画(白背景に黒線)を使用する場合に選択します。AIが線画をしっかりと認識し、詳細な画像に変換します。

lineart_standard (from white bg & black line)
lineart_standard (from white bg & black line)


2. invert (from white bg & black line)

  • 概要: 白い背景に黒い線で描かれた線画を反転し、黒い背景に白い線に変換します。これにより、元の線画とは逆の色合いで画像を生成します。

  • 使い方: 線画の色を反転させたい場合に使用します。元の線画が黒い背景に白い線で描かれている場合にも適しています。

invert (from white bg & black line)
invert (from white bg & black line)


3. lineart_realistic

  • 概要: リアルなスタイルで描かれた線画を認識し、それに基づいてリアルな画像を生成します。

  • 使い方: より現実的なスタイルの線画から、リアルな画像を生成したいときに使用します。

lineart_realistic
lineart_realistic

Checkpointをリアル系に変えてみた。

lineart_realistic


4. lineart_coarse

  • 概要: 粗い線画やラフスケッチを認識し、それを元に画像を生成します。線が太い場合や、詳細が少ない場合に適しています。

  • 使い方: 詳細が少ないラフスケッチや、太い線の線画を処理するときに使います。

lineart_coarse
lineart_coarse


5. lineart_anime_denoise

  • 概要: アニメ風の線画を処理しつつ、ノイズを軽減するプリプロセッサーです。アニメスタイルの線画で、線の細かさやノイズを抑えたい場合に効果的です。

  • 使い方: アニメスタイルの線画を使ってクリアな画像を生成したい場合に使用します。

lineart_anime_denoise

プロンプトから「笑顔」を削除したら表情が変化。

lineart_anime_denoise


6. lineart_anime

  • 概要: アニメ風の線画を認識し、そのスタイルに基づいて画像を生成します。ノイズ処理を行わず、元の線画のスタイルを維持します。

  • 使い方: アニメスタイルの線画をそのまま使って画像を生成したい場合に使用します。

lineart_anime
lineart_anime

これも雰囲気変えたい時には持って来いなんじゃないでしょうか。
いろんな場面に対応できそうです。



またひとつStable Diffusionで出来ることが増えて嬉しい限りです♪
最近は仕事に向けて腕を磨いている(?)ので、執筆ペースが落ちています。
が、まだまだ学びたいことはあるのでnoteは続けていきたいです。何卒よろしくです。
いつものありがたいガイドブック👇


今日のサムネ生成過程(ChatGPT,DALL-E 3)

私「「そうだ!AI画像生成をちゃんと勉強しよう💡11章:ControlNet その2」というタイトルのnote記事を書きました。 このタイトルに合うような画像を作ってください。 要望は、夏服を着たロングヘアーの美少女、日本の少女漫画のような繊細なタッチで、水彩画のようなカラーリングで16:9で描いてください。」

ChatGPTくん「こちらが「そうだ!AI画像生成をちゃんと勉強しよう💡11章:ControlNet その2」のタイトルに合うイラストです。ご確認ください。」

私「良い感じです!」

以上!


ここから先は

449字 / 9画像

¥ 100

この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?