【Stable Diffusion】自作Loraでimg2imgしてみた02
どうも🎵最近はBCGにすっかりはまってしまい、画像生成AIの研究がなかなか進んでいないエルティアナです…!
今回は、ついついnoteさんの、今月中に1記事書くと、毎月記事を書いてる記録を更新できますよ…!という案内につられて記事を書いているのですが、最近すっかり自分の中でも定着している、DALL-3の出力イラストをStable Diffusionのimgd2imgで自作Lora反映して描きかえるというのをブログ記事を更新した際に実施したので、その記録を積み増し的に記事にしたいと思います!
実施内容については以下の記事を基本的に自分で参照しています!
今回のimg2img読み込み素材
今回は、【ピザを食べている私】のイラストを作成したかったので、上記の画像をChatGPT4のDALL-E3で出力しました!
Stable Diffusionのimg2imd実施
上記の記事の手法通り、Stable Diffusionのimeg2img(inpaint)にて上記のイラストを読み込み変換してみました!
まとめ
過去の私のナレッジの使いまわし(積み増し)ではありましたが、こんな感じで、【~な私】というのを表現することが、ものの20分で出来るようになっていて、我ながらとてもすごいな…というか嬉しいな…!と思う次第です。毎度毎度言ってしまいますが、こんなふうに自分のいろんなシチュエーションのイラストを描こうなんて思ったら、もっと低いクオリティの仕上がりで、どんなに短くても3日はかけて1枚描いてたんだろな…と思うと、もう生成AIなしには考えられない感じですね…!
もともとイラストの才能もないや…とあきらめかけていた中で、なんとかして自分で描かなきゃ…!と頑張っていた感じで、もし人に描いてもらえるならそれに越したことはないと思っていた私には、何度も何度も同じことを言ってしまいますが夢のような時代になりました…!
いい加減、画像生成AIの新しい技術も勉強して、記事化していかないと…!と思ってるくらい、最近もっと進化しているので、引き続き【実践と実体験】ベースで、画像生成AIのスキルを上げていきたいと思います!
この記事が気に入ったらサポートをしてみませんか?