2023年の軌跡
初めまして、リスティーと申します。
AIイラストを初めて約1年経ち、丁度良い機会なので、去年1年間の振り返りをまとめてみました。
月毎に分けるのも考えたのですが、やっている事が月を跨いでいたりする事も多かったので、大きな変化があった区切りでやっていきたいと思います。
1.AIイラストを始めたきっかけ
AIイラストを始めたきっかけは、X(当時のTwitter)でNovelAI製のイラストを見た事でした。絵なのに何でNovel?と感じたのも懐かしい~。本来は小説を書くためのサービスで、イラスト生成機能はその挿絵を描く機能だったみたいなんですが、今やそっちの方が有名ですね。
そして、思い切って、いくつかの使用頻度の少ないサブスクを解約し、Opusプランを契約してAIイラスト作りを始めました。10月くらいだったかな?
作りたい絵を考えた時、真っ先に思いついたのが「自分のゲームで使ってるキャラ」をイラスト化出来ないか、という事でした。そのキャラというのが、FF14で使ってる種族Lalafell、ジョブ暗黒騎士の、Ristyというキャラだったのです。
NovelAIは、プロンプトの効きが良く、いろいろな単語に反応するので、もしかしたらLalafellも効果あるのかな?と思って試してみたらそれらしい絵が出力されたので、その時は感動したものです。
そうして、NovelAIで執行錯誤しながら、キャラ再現のためにいろいろ作りながら、ネットでも情報を集めていた所、見つけたのがローカルで動かす生成AI「StableDiffusion」だったのです。
2.StableDiffusionとの出会い
きっかけは、NovelAI製のイラストと比較して明らかにクオリティーが段違いのイラストを見かけた事でした。
「え?これAIイラストなの?どうやってこんなのを作るの・・・」
そして調べた末に分かったのは、ローカル生成AI「StableDiffusion」に学習済モデルを適用して絵柄を設定し、AIイラストを生成する方法でした。
そして、どうやらStableDiffusion WebUI A1111というのが、その機能を使う一番普及しているものだという事が分かりました。しかし、その環境を構築する方法というのが・・・
Pythonの、Gitが、Bashで、127.0.0.1:7860
・・・はい????
当時としては聞いた事もない単語が並んで、こりゃ無理だと思いました。何しろ、英語サイトにあるPythonとかいう謎のものをインストールしないといけないって、大丈夫なのかな?と不安になるばかりで、初心者にはハードル高過ぎだったのです。
そして諦めたところに彗星のごとく現れたのが「NMKD Stable Diffusion GUI」、Stable DiffusionをWindows上で使うためのGUIツールでした。
こちらは普通のアプリケーションのようにインストールするだけで、環境構築も必要なく、すんなり導入できました。学習済モデルをDLして、確かに絵柄を変えられる事も確認できました。
しかし、このアプリで一番注目した機能が通称i2i、image to imageだったのです。
3.i2i・・・
i2iとは、参考画像を入力すると、それに、プロンプトと各種パラメータの情報を元に描き直してくれるような機能です。
「もしやゲームのSSをイラスト化出来るのでは?」
元々ゲームのキャラのイラスト化が目的だった私は早速試してみました。
かなりイメージに近い絵を作る事が出来て、しばらくはこれにハマったのですが、早々にi2iから手を引く事になります。当時、他人の絵をi2iして公開し、問題になった出来事があったからです。
ゲームのSSも権利はスクエニにあるので、いくら元SSとはかけ離れていたとしても、SSからi2iで絵を作るのはあまりよろしくないなぁと思い、また別のアプローチを考える事となりました。そこで、再びStableDiffusionWebUI A1111の導入に挑戦する事になります。
4.StableDiffusionWebUI A1111
この頃にはYoutubeでもこのSDWebUIの導入方法の解説動画が上がっていて、PythonやGitも、別に怪しいものでは無く、ただのプログラミング言語やバージョン管理システムだという事も分かり、解説を見ながら何とか導入に成功しました!
さらに学習済モデルの方も進化していて、マージモデルというのが登場していました。これは、複数の既存モデルを元にして新しいモデルとして作られたもので、それによりモデルの数は爆発的に増え、絵柄の選択肢も豊富になりました。そしてモデル選定の旅が始まりました。
そして数々のモデルを試した結果、最終的に行き着いたのが、グラハムさんの作成したモデル、Graham Special v1でした。ララフェルの再現、という意味では遠ざかりましたが、とにかく背景が綺麗で、しばらくはこの絵柄を採用していました。
5.ララフェルLoRAとの出会い
NovelAIの時と違ってLalafellタグが効かず、頭身が高めのキャラになりがちで、Childのタグを入れても普通に子供になるだけで、あの独特のフォームを再現出来なかったのですが、ここへ来てララフェルLoRAなるものが登場www
そのまま使うと絵柄まで影響してしまうので、一度このLoRAで作った後に、Controlnetにその絵を参考画像として入れて、再度生成など、いろいろな機能を駆使して、何とか絵柄を保ったまま、ララフェルっぽい絵が作れるようになりました。
この後、しばらくはLoRAだったり、Controlnetだったり、LatentCoupleだったり、Pixelizationだったり、WebUIの機能をいろいろ試して、遊んでいたのですが、ここでついに、AIイラストにおいて、私のおそらく一番のターニングポイントである、ユーニャルーラさんの「ExecuteGirl」に出会ってしまうのです。
6.ExecuteGirl
何気なくX(Twitter)を見ていた所、何かのソシャゲの新キャラ紹介ぽいものが流れてきました。
「また新しいソシャゲかな?まぁ、よくあるやつ…」
と、流そうとしてたら、投稿者を見て
「あれ?この方って確かAIイラストを投稿してた…」
そして最後の一文「っていう、キャラ紹介風イラスト!」を見て、
「これ、AI絵かーーーー!」
と、驚きました。それほどまでにクオリティが高かったのです。
今までAI絵は大体1枚絵として公開されてるものしか見た事がなく、ここまで画像編集している凝ったものを見た事がなかったのも驚いた一因でした。
そして、そう間が空くこともなく、この世界観がシェアワールドとして公開される事になりました。
背景素材やタイトルロゴ素材といったものも無料で公開されていて、お膳立ては十分過ぎる程。これを使えば、自分のキャラでソシャゲ風の立ち絵イラストが作れるとあって、画像編集なんてほとんどした事もなかったのに、挑戦してみようと思い立ったのです。
この時点で、モデルをより柔らかいタッチのアニメ調が表現できる、Vすき焼きさんのマージモデル「ShiratakiMix」に変更しました。そうして出来上がったのがこちらです。
多数の素材を使用しているのと、メインはAIイラストという事を考慮しても、自分でこれを組み立てたのが信じられないという感想でした。このおかげで画像編集も体験できて、とても新鮮で楽しかった記憶があります。
また、これに対して、企画の立案者であるユーニャルーラさんから感想を頂けたのも、今後のAIイラスト作りを続けるモチベーションアップに繋がったと思います。
それから怒涛のキャラ作りラッシュが始まって、気付いたころには、9体ものキャラを作っていましたwww
この時作った9体のキャラに愛着が湧いて、今のウチの子になっています。ウチの子という概念も、この時教えてもらいました。
7.ペアイラスト作り
次に手を出したのは、ペアイラスト作りでした。
LatentCouple自体は以前にも触った事はあったんですが、合わせるキャラがいなかったのであまり使っていなかったのです。しかし今なら9体もいるし、何なら他の人のキャラとのコラボもいいなぁと思い、ユーニャルーラさんのキャラをお借りしてペアイラストを作ったのがこちらです。
そしてしばらくはこれにハマりますw
8.架空ソシャゲAIイラスト
次にやり始めたのが、架空ソシャゲAIイラストです!元々は、ユーニャさんが作ったローディング画面風の素材を使った遊びでした。
そこから派生して、作ったのがこちら。
この時点で、モデルをMORIMORImix v3に変更しています。
これでかなり自分のイメージに近い絵柄になってきました。
さらに、自分のキャラだけでは飽き足らず、勝手に他の人のキャラを、ファンアートと称してこのフォーマットで作り始めますwww
普通の二次創作と違って、AIイラストの場合は元々の絵自体が、ふんわりと大体の雰囲気が合っていればOK、みたいなゆるい感じなので、おおまかな特徴さえ押さえていれば、他人が作ってもそれらしく見えるのが良い所ですね。
これがきっかけで交流を持てた方もいたので、今振り返ってみてもやってよかったなと思いました。
9.抱き枕風イラスト
この段階で絵柄的には満足していたのですが、あえて別のモデルも使ってみようと思い、Teaさんのマージモデル「Agelesnate」を使い、抱き枕風イラストを作りました。
かなりテイストの違うモデルなんですが、特徴をしっかり表現できれば、キャラの再現はできると思えた経験でした。あと、キャラのイメージカラーも大事だなと思いました。この辺は、EGの素材カラーに合わせてキャラを作っていたのが功を奏しましたね。
10.PetitCutie v2.0
そうこうしている内に、SDWebUIもv1.6.0になり、そのタイミングでさらにメインのモデルを変更しました。それが、2024年1月現在も使用中の、RSTR@AIさんのマージモデル「PetitCutie v2.0」です。ここで、現在の絵柄がほぼ完成しました。その後も、Refinerのモデルを変更したり、絵柄に影響を及ぼす系のLoRAを導入したりして微調整しています。
そして、好きな絵柄になったので、再びコラボイラストを作り始めますw
さらに、LatentCoupleの限界に挑戦すべく、サラトバ四神のイラストも作成しました。
この段階で、ほぼ、自分なりのテイストが確定した感じですね。
11.AnimateDiff
SDWebUI v1.6.0になってAnimateDiffがVRAM12GBでも安定して動かせるようになったので、アニメーションにも挑戦しました。
この頃はまだ出始めだったので、ちょっと遊んでからすぐやめちゃったんですけど、今年後半、急激な勢いでこのAIアニメーション分野の技術革新が進んで驚いています。今年もまた挑戦したいなぁ。
そしていよいよ始まるのがあの一大イベント、そう「グランシュライデ」です。
12.グランシュライデ
ちちぷいさん主催のイベント「次元衝突領域グランシュライデ」が始まりました。
とんでもなくクオリティの高い主題歌付のPVまで用意されていて、それを見て、早速4陣営分の自分のキャラを作成するなど、当時テンション爆上がりだった記憶がありますw
文才がないので、気の利いたストーリーなどを作れず、仲間を求めて淡々と冒険するだけの感じになってしまいましたが、イラスト自体は、結構良いイラストが生成出来たので満足でした。
13.各種季節イベント
季節ものにも挑戦しました。
まずはハロウィーン。
続いてクリスマス。
クリスマスに関しては、他の方のキャラも作成しました。
そして、現在、年が明けてのお正月イラスト。
14.まとめ
こうして書き連ねてみると、結構紆余曲折を経て、今に至っているんだなぁと改めて感じました。ぱっと見のクオリティーは初期と比べたら確かに上がりましたが、細かいところを見るとまだまだなので、そういう修正なんかももっと上手く出来るように画像編集ソフトも使いこなして行きたいですね!
それでは、長々とお付き合いありがとうございました!