見出し画像

ComfyUIで「Mochi」を使った動画生成を試してみる

Mochi 1とは

Mochi 1はまさに公開されたばかりのオープンソースなビデオ生成モデルで、
最近ComfyUI は Genmo の最新モデルのサポートを最適化し、4090などの GPUで高速に実行できるようになったとのことで早速いじってみることにしました!


🌎プロジェクトページ類

Mochi

ComfyUI

💪早速試してみる

ComfyUIのexamplesに沿って下記からsafetensors類をしかるべきフォルダに配置。

diffusion_models/mochi_preview_bf16.safetensors goes in: ComfyUI/models/diffusion_models/ text_encoders/t5xxl_fp16.safetensors goes in: ComfyUI/models/text_encoders/ vae/mochi_vae.safetensors goes in: ComfyUI/models/vae/

ファイルはだいぶ重かったですが、最近回線を高速に変えた私に不可能はありません😊

唐突なスピードテスト自慢

例で載っているワークフローを読み込むとのこのような感じでした。

ぜひ動画もキャプチャしたので見てください。まるで本当に撮ったかのようなショートビデオ。きれいです!

動画の生成なので多少の時間はかかるけど、それでも5分程度のものでこのクオリティならまったく問題ないですね!

それではほかにもいろいろ生成してみたいと思います。

✨Mochi作例

ほのお
くまちゃん
水日だしのひまわり
雪と🌕
機械戦争
パスタを食べようとしたら襲われてしまった
もやもや

👀まとめ

動画生成モデルはいままでも色々ためしていますが、Mochiは結構しっかり動くタイプのモデルだなと感じました!
優れたモーション品質と迅速な順応性が話題となっていましたがまさにその通りですね。
今回はサラッと例を試しただけですが、プロンプトやワークフローをしっかり定義したらもっとずっとアプトプットも良くなりそうな気がします。

動画生成もだいぶ成熟してきた感じがしますね。来年はどうなるかな。
今日はここまで〜!

いいなと思ったら応援しよう!