見出し画像

ローカル t2v 生成、HunyuanVideo をさらに使い込んでみる。

続きです。
LoRA F1 ファイルが実際に効いているのか、効果が明らかなものを
使って確認します。

まずその前に縦横比を変えてみます。元の面積より大きくならなければ
メモリ不足エラーは回避できるでしょう。

まずはこれで生成させてみました。

気のせいか美人度が上がっています。
ざらつきはプロンプトで「dark and foggy environment, heavy fog
environment,」を与えているためでしょうか。webp 出力しかなく
それを GIF 化したためなら深刻です。(美人度が上がればまた
新たに懸念材料が生じるという….。)

無事に縦構図での動画生成が出来ましたので、LoRA F1 の追加をします。

効きを 3.0 に設定した Asir Asian Portrait Photography Flux.safetensors 
の後方に直列で、BLUE_mk4_angel_FLUX_01.safetensors を効き 2.0 で
挿入しました。縦の長さも 720 pixels に拡張しました。

出力を最近使っていたオンラインコンバートサイトに入力しましたら
「1 日 10 件以上のリクエストをあなたは要求した。ならば金を払え!」
との有償契約画面が出ました。そんなことどこに書いてあった?
しかも 1 日 10 件などしていません。いつからのカウントなのか?

なので、インストールしてオフライン動作するツールを入手しました。

それで GIF 化したものです。

ざらざら感は同じ程度で、記事にも無事貼り込めたので安心して以後も
使えます。元の webp のほうが 1677 万色(GIF は 256 色)で階調豊か
ではあるものの、記事中で動きませんので致し方ありません。
(webp の開発は Google であり、ファイルを Chrome でオープン
すると動くのですが、Chrome で見ている note 記事内で動かないのは
厄介です。またざらざら感は GIF 化に伴うものであることが Chrome
での再生の滑らかさで理解出来ます。)

まだ腹筋バッキバキの印象はありません。
BLUE_mk4_angel_FLUX_01.safetensors を効き 4.0 に上げてみました。

あらー…美人動画ではあるものの、腹筋が見えません…(^^;)。
ひとつ前から勝手にロングヘアにもなってるし…。
GIF 化による階調劣化がこれだけのクローズアップでは感じられます。

プロンプトの「medium shot」を 「portrait」に変えてみましょうか。
(逆効果か)

効果なしでした(^^;)。

「portrait」を「full body」にしました。

構図は狙い通りとなったものの、いかん…。navel(臍)が出ている。
未来素材の装甲を纏っている設定がこれではボディ・ペインティング
かよ、ってお粗末です。
やはり静止画原画を用意して、そのような破綻を月の模様と同じく
IOPaint-LaMA で補正してから、Image2Video化するのが良いのか…。
腹筋バッキバキは全然効きません。それでこの問題を回避したい
のでしたが…。効きを倍量の 8.0 にしてみます。

これで効かずなら、LoRA F1 が効いているのかどうかも怪しくなります。

効いていません。
BLUE_mk4_angel_FLUX_01.safetensors が CheckPoint ファイルに対して
有効でないのか、LoRA F1 の投入自体が効果をもたらしていないのか
はわからなくなりました。今回は navel は描かれませんでしたが…。

ただ周囲の雰囲気は異様なものに変わりつつあります。そちらに効きが
回っているのでしょうか…。

効きの有無を確認したく、効きを 32.0 まで上げました。
FLUX.1 on Stable Diffusion Web UI Forge での原画生成では画面破綻して
いるような設定の筈です。いや既に 8.0 でもかな。

はい。破綻しました(^^)。ということは LoRA F1 による CheckPoint の
修飾は為されているということです。
(変換した GIF が貼り付けられません。チカチカしたタイルの集積
のようです。サイズが大きいのでしょうか。)

効きを 16.0 まで落としました。画面破綻寸前ですが、腹筋バッキバキ
的な作用は感じられません。CheckPoint の相違が LoRA F1 の修飾効果
も変えているのかもしれません。

一旦、BLUE_mk4_angel_FLUX_01.safetensors の適用は諦めます。

しかしそれ以外の要素において、ここまで雰囲気を統一出来るなら、
静止画原画を生成して、同じような雰囲気の原画をセレクトして
動画化に臨む、というプロセスではなくても(不要とは言わずとも)
良い感じもします。

LUMA AI の DreamMACHINE が Text2Motion と Image2Motion の
両方を実装して登場した今や大昔、Text2Motion が描画の都度、
アニメ調になったりファンタジー調になったりで「これは創作環境
としては使えない」と判断の後に、セレクトした原画からの動画生成で
雰囲気を統一出来る Image2Motion(Video) にずっとこだわって来た
のでした。

その意味でも、HunyuanVideo の登場はエポックメイキングな出来事
でした。本日時点(2025/01/10)では検索で見当たらない i2v への
ワークフローのエンハンスがあることを期待します。

他の題材でもどこまで描画力を発揮するか、継続して試行を続けます。



ご覧いただきありがとうございます。



(2025/01/10 執筆)


いいなと思ったら応援しよう!

この記事が参加している募集