見出し画像

5/23 連邦に反省を促すデザちゃん

地味にやりたかかったことができて謎の感動が・・・🥺

今回はこれの作り方の紹介です。このような構成になってます。
①ControlNet1.1の導入と設定
②動画を白背景にする
③Mov2Movで動画を変換


【①ControlNet1.1の導入と設定】

ControlNetの拡張機能をインストールして、Hugging faceからモデルを全部ダウンロードしてControlNetというファイルの中に全部入れるだけです。
たぶんControlNet1.1で検索した方が早い。

あとはSetting → ControlNetのMulti ControlNetを2にするとControlNet Unitが増えます。つまり、複数のControlNetを同時に使えるということです。


【②動画を白背景にする】

Aviutlでなんやかんやして動画の背景を白っぽくしました。
最初は背景をいじらずにMov2Movしてたんですけど、背景のオブジェクトが人や髪に判定されて面倒だったので、できるだけ背景を消しました。


【③Mov2Movで動画を変換】

Mov2Movのタブに動画をドラッグ&ドロップします。
プロンプトも入れましょう。(solo, from front, looking at viewer:1.4)を入れておくと安定しますね。
特定のキャラを出すにはLoraが必須です。今回は自作の神デザちゃんLoraを使いました。

設定はこんな感じ。モデルはなんとなくDefacta3thにしました。


ControlNetの設定はこんな感じ。
Unit0ではopenposeを選択して、Unit1ではreference_onlyを選択。
Unit1にはキャラの参考画像も入れておきましょう。


あとは生成すればOKです。
23秒の動画を変換するのに2〜4時間(私の環境だと3時間)かかるので、気長に待ちましょう・・・🍵

ただし、最初は色々設定を試した方が良いと思います。
進捗10%くらいになったらInterruptすれば途中までの動画が保存されるので、確認することもできますよ。


説明は以上です。

鳴らない言葉をもう一度描いて〜♪

この記事が気に入ったらサポートをしてみませんか?