動画生成AIの「Luma Dream Machine」がヤバくて衝撃
Luma Dream Machineを使ってみた衝撃を伝えたい。
簡単に言うと、静止画像を与えると、いい感じに短い動画を作成してくれるというツールです。
発表されたのが2024/6/12ということなので、ちょうど1ヶ月前ですね。
正直、動画生成はあまり興味がなく、というか、マシンもスペック不足だし、動画は面倒くさそうってことで、スルーしていました。
折も折、私の「画像生成AIで作ってみた」シリーズを、冗談半分で動画化希望、って話があったのをきっかけとして、Lumaが話題になった時期と重なり、ちょっとだけAI動画を調べてみたのが運の尽き。
(※なんか日本語文章めちゃくちゃですね)
1枚の静止画から、あるいはテキストのプロンプトから、ショート動画を作るサービスとしては、以下のようなものがありそう。
・Runway Gen-2
・Haiper AI
・Luma Dream Machine
他にもいろいろあるのでしょうが、とりあえず目についたのは上記の3つくらい。
あと、「Sora」ってのが発表されていますが、まだ使えるようにはなっていないみたい。
とりあえず上の3つは、無料でお試しはできるようなので、試してみました。
Runway Gen-2とHaiper AIは、ぬめ~っと動くような動画が出力されました。
なんか、いまいちパッとしない気がしました。
風景画像だったらうまくいくのかもしれませんが、人物が入っている場合には、外国人顔にモーフィングされるようで、非常に気持ちが悪い。
それに対し、Luma Dream Machineは劇的でした。
確かに、画像の破綻はします。
顔も変わってしまいます。
たった5秒の短い動画なのに、「どうしてこうなる!?」っていう乱れもありますが、それでも「静止画が激しく動く」衝撃のほうが上回りました。
5秒まるまる使うわけではなく、そこから1~2秒ほどを切り出して編集する使い方をすればいいだけじゃないか?
とにかく、1枚だけ画像を動かしてみたところで、私のクリエイティブ魂にマッチ棒の火がついてしまったわけだ。
この画像が、こんなふうに動くんですよ、というサンプル動画を見せたいところですが、noteはmp4動画を埋め込めないようで。
やはりYoutubeにしないといけないのか?
やっぱりめんどくさそう。
早くも風前の灯火。
幸い、過去の「画像生成AIで作ってみた」シリーズが結構たまってきています。
生成AIが作ったものだから、自分のオリジナルか、と言われれば微妙なところですが、それでも「他の人間が作ったものではない、唯一無二の画像」という意味では自由に使っていいでしょう。
静止画像が動き出すなんて、ハリポタのホグワーツくらいかと思っていました。
こんな簡単に現実になるなんてのう。
長生きはするもんじゃて👴
まずはリクエストがあった「OM:I」を動かしてみようかと思います。
カミング スンッ…