![見出し画像](https://assets.st-note.com/production/uploads/images/138076981/rectangle_large_type_2_62cd1bbdcc3fbc961dc902c6c55b154c.png?width=1200)
Animagine XL 3.1の画力が高くてビビった話
画像生成AI、Stable Diffusion関連の話です。
特定のアニメの画風やキャラクターを再現するモデルとして紹介される事が多いAnimagine XLですが、作者や作品、キャラクターを指定せずに普通に使うとどうなるか試してみました。
髪型と髪色の生成にはClone Cleaner(Name、Countryはoff)、顔の補正にはADetailer、全体の画質向上にFreeUを用いています。
![](https://assets.st-note.com/img/1713717826914-wF3ZFePWbK.png?width=1200)
![](https://assets.st-note.com/img/1713717822174-9190LS8uRK.png?width=1200)
![](https://assets.st-note.com/img/1713717829874-KobeAI9Vu6.png?width=1200)
![](https://assets.st-note.com/img/1713717823939-zYjxebrpfr.png?width=1200)
デッサンや構図など、人間でいうところの基礎画力のようなものが高くて驚きます。
Animagineの基礎だけを流用し、Refinerを使ってリアル系モデルを混ぜて生成してみるとどうなるか試してみます。
ベースのモデルはAnimagine XL 3.1で、Refinerにリアル系モデルのCopax TimeLessXL - SDXL1.0 v9を指定しています。
![](https://assets.st-note.com/img/1713718825485-p5FFrIV7lD.png?width=1200)
![](https://assets.st-note.com/img/1713719132131-FUD3dENpeV.png?width=1200)
![](https://assets.st-note.com/img/1713719231316-OMrjwx809r.png?width=1200)
![](https://assets.st-note.com/img/1713719324154-E5eC0NiFVp.png?width=1200)
このような結果となりました。同一のSeedでもモデルを変えると構図もガラリと変わってしまいます。プロンプトで室内を指定していますが、Copax100%の方は外に出てしまっています。
Animagineはプロンプトに忠実な印象で、構図も良い感じですね。
Animagineの割合が多いと2.5Dの画像のようにはなりますが、Chillout Mixの要素が未だに残るリアル系モデルから脱却するひとつの手法としても良いかと思います。
LoLA無しでプロンプトで指定したアニメのキャラクターがそのまま再現されるのは画期的とは言えるものの、著作権的に各方面から怒られる可能性があり、その事で生成した画像をSNSなどで公に出来ないのであれば、Animagineを使う意味がありません。
そこで、Animagineでベースを生成し、他のモデルを混ぜていくような手法で、ズバリそのもののキャラクターではなく、ファンアートレベル程度まで元のキャラクター成分を薄める事が出来れば、Animagineの使い道も広がるのではないかと思います。まぁ、グレーではありますけども。