![見出し画像](https://assets.st-note.com/production/uploads/images/160183384/rectangle_large_type_2_9cf254087119ab142307d023c35c5823.png?width=1200)
ComfyUIのAnimatediffでimg2videoを試す話
まだ、検討中ですがアニメ系とリアル系について、ComfyUIのAnimatediffでimg2videoを試してみました。
胸揺れワークフローを一部変える感じにしてみました。
![](https://assets.st-note.com/img/1730266105-P1Hh0KuNtYzkVEFseGIra24U.png?width=1200)
元絵として上のようなものを用意しました。
![](https://assets.st-note.com/production/uploads/images/159912622/picture_pc_14d7c40209cc4a92f211c9dd9ff93bfe.gif)
絵柄が変わりましたが揺れてくれました。
リアル系
![](https://assets.st-note.com/img/1730279506-MJ2Ohv7E4QLURIGDbeACgjwT.png?width=1200)
![](https://assets.st-note.com/production/uploads/images/159917299/picture_pc_a3b4455db328b42799557de02becbc47.gif)
こちらは厳しい結果に。。。。おそらくプロンプトも悪い可能性あり。
顔が小さい為、SD1.5だと崩れる印象。
縦長の画像にしています。
![](https://assets.st-note.com/production/uploads/images/160187584/picture_pc_417f52499313023e93eafe64d89f8717.gif)
SDXLで今一度video2video的にしてみたものです。
顔がましになりました。
リアル系については工夫が必要そうだなと感じました。
最初からSDXLが使えると良いのですが、motion loraを使うためにSD1.5を挟まざるを得ないのが現状かと感じました。
ちなみに公式のGithubではimg2videoのフローは公開していません。
これは著作権絡みのトラブルが起きやすい事も関連しているのかなと勝手に推察しています。
この記事は、出来そうな感じがするという検証結果でした。