見出し画像

【EasyAnimate v5.1】画像1枚からプロ並みの動画が作れる!ComfyUIを使った最新AI動画生成ツールを日本語で解説💻 画像・テキストからの動画生成、カメラ制御など上級者テクニックも満載👍

どうも皆さん!「このタスク、5分で終わる」と見積もったのに、気づけば2時間経過している時間感覚のズレ、これを「時間の相対性理論・実践編」と呼んでいます、葉加瀬あい(ハカセアイ) です!

今回は、ComfyUIのEasyAnimate v5.1を使って、テキストや画像から簡単に動画を生成する方法について解説します!

動画生成って、難しそう…?画像から動きのある動画を作るなんて、専門知識がないと無理なんじゃないの?と思っている方も多いのではないでしょうか。

実は、EasyAnimateとComfyUIを組み合わせることで、誰でも簡単に動画生成を始めることができるんです!さらに、今回は日本語の指示を英語プロンプトに変換する方法や、Webページで簡単に試す方法についても紹介します!

ということで今回お話しする内容はこんな感じです!

  • ① 完全にオープンソース化されたEasyAnimate v5.1の魅力とは?Hunyuan-Videoと同等のパフォーマンスを発揮する、その実力を徹底解説!

  • ② ComfyUI初心者でも安心!EasyAnimateのワークフローの適用から、ノードのインストール、競合の解消まで、画像付きでわかりやすく解説!

  • ③ 実際に動画を生成してみよう!ビデオの長さやフレームレートの設定から、動画生成開始までの手順を、初心者にもわかりやすく解説!

それで、私の メンバーシップ に入門されている方は、いつものように記事内容を 動画 で見ることができます!

動画版は、こちらのURLからご覧ください!

http://note.com/ai_hakase/n/n83bc0f10cb68

それから、Noteのメンバーシップ の入門者さんには 質問対応 なども行っていますので、感想や質問などありましたら、できれば Xのリプライ で教えてください!

XのDM や Noteのコメント でも構いません🙆‍♀️

※ 質疑応答の際は 『NoteのID + 質問したいNote記事のURL』 を添えてください。

https://x.com/ai_hakase_

それでは、本日もよろしくお願いします!


EasyAnimateがv5.1にアップグレード!その驚きの性能とは?

ということで、EasyAnimateがv5.1にアップグレードされました!

12Bの完全にオープンソース化されたモデルは、私もこちらでご紹介している Hunyuan-Videoと同等のパフォーマンスを発揮します ⋯これは、期待が高まります!

しかも、I2V、V2V、およびさまざまな制御入力をサポートしています。

少し例を出しますと、本当にすごくて、HunyuanVideoみたいなものをテキストから作成することもできます!

犬や人間、自然風景なども、きちんときれいにテキストから作成してくれます!

人間の生成結果もかなり良い感じです⋯!

画像から動画を生成!Hunyuan-Videoにはない利点

もちろん、画像を入力して、その画像を参照して動画を作成することもできます!ここは Hunyuan-Videoにはない利点 です!

ディズニーのシンデレラ城みたいなところで花火が上がっているのが、動画に変換されているのがわかりますでしょうか?

他にも例を出しますと、こんな感じです。人間もかなりきれいに映すことができますし⋯

アジア人女性などもそれなりにきれいに映ります!

それと、ドラゴンみたいなモンスターハンターに出てきそうな架空のものとかも、ちゃんときれいに生成できます!

(ただし一貫性が依然として課題ですね…)

動画から別の動画を作成!V2Vの可能性

もちろん、Hunyuan-Videoで行ったように、 動画から別の動画を作成する といったことも可能です。こちらの例では、宇宙飛行士がギターを弾いているのを、猫がギターを弾いているように変換しています。

カメラワークの制御も可能!より表現の幅が広がる

ちなみに、その他にもカメラの制御なんかもできるわけです!カメラワークで遠ざかったりしながら動画を作成できるみたいです。

Runwayなどの動画生成AIでだけでしかできなかったカメラワークも、これでできるようになりました!

カメラワークを指示して、思い通りの動画を生成しましょう⋯!

右へ、左へ、カメラを動かしたり、上へ下へとカメラを動かしたりするような雰囲気を演出できるんです⋯!

軌道制御で、被写体の動きを自由にデザイン!

さらに、 軌道制御 という機能もございます!軌道を指示してあげると、例えば、犬の顔がその軌道に沿って動画の中で動くようになるんです⋯!

少しイメージしにくいかもしれませんので、動画で説明させてください!まず、このように手書きで軌跡を描いて、動画を生成してみましょう!すると、その軌跡に沿って、被写体の上にあるものが動いてくれる、そんな感じになるんです⋯!

ControlNetで、思い描いた被写体を動画に!

それから、 ControlNet のキャニーやデプスといった機能も使うことができます!「こんな感じの被写体を作ってほしいな⋯」という大まかな指示を書き込むと、それに沿ったリアルな動画を生成してくれるんです⋯!

例えば、棒人間の絵を描けば、その通りに動いてくれたり、スクライブで雑に引いた線をなぞってくれたり、深度マップをなぞった動画にしてくれたりする、そんな雰囲気です⋯!

その構造とは⋯?

先ほど少し触れた通り、Hunyuan-Videoのような動画が作れるのですが、実は構造的には、 OpenAIのSora と近いのです⋯!

実際に使ってみましょう!詳しい手順をご紹介

それでは早速、具体的な使い方についてご説明いたします!

ここから先は

6,144字 / 34画像 / 1ファイル

🔰初心者でも『note記事・動画・質疑応答』の3点で最新のAI情報がわかります。 あいラボ (A…

🎈葉加瀬のAI研究室 ~あいラボ~ 記事/動画/質問プラン

¥2,599 / 月
あと8人募集中

🎈定員オーバー枠: ~あいラボ~ 記事/動画/質問プラン

¥3,280 / 月
人数制限あり

この記事が参加している募集

この記事が気に入ったらチップで応援してみませんか?