WebUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)
WebUIでOpenposeを試していて、やっと期待していた出力が出てきたので、設定をメモ。
Stable Diffusion上の設定
img2imgで以下のような設定で実行する。
RTX4090で7時間半で出力される。
ポイント
インプットとなる、動画の被写体の大きさで、出力される動画の質がまったく違う。
「画像に対して被写体が大きい」で出力すれば、ページ上部の動画のように、質の高い動画が出力できるが、「画像に対して被写体が小さい」で出力すると、質が落ちると感じる。
結果
インプットの動画(controlnetで骨組みを抽出する動画)の被写体の大きさを大きめにすれば、かなり質の高い動画が出力できると思われます。