Midjourney利用から1日目の記録:利用検討されている皆様へ
はじめに
みなさんこんにちは!このNoteでは、生成AIを駆使したYouTubeチャンネル立ち上げに関するTipsをお届けしています。
今回は、画像生成AIツール「Midjourney」について、課金1日目にして思ったことを書き留めたいと思います。Midjourneyの利用を検討されている方にとって参考になれば幸いです。
Midjourneyを使い始めたきっかけ
私がMidJourneyを試してみようと思った理由は、元々使っていた生成AIツール「Runway Gen-2」の活用時に、意図通りの映像を出すまでに少々時間がかかって困っていたからです。
私は、BGMと組み合わせるための、ちょっとシュールな映像を生成AIで作ってYouTubeにアップしています。例えば下記のようなBGMです。
(もしもスマホを持った仏像が世の中にあったら面白いよな、と思った、ただそれだけです)
Runwayで生成されるAI画像は、現実にありそうなものはそれなりの精度で出力が可能だと思います。自然の風景など写実的な描写についても、かなり綺麗な画像が生成されると感じており、その点は一定満足しています。
一方、特に問題に感じる部分は、現実にない画像を作りたい場合です。どうしても「カッパが顔半分を水面から出して、こちらを睨みつけてくる」シーンを作りたかったのですが、Runwayで生成される画像はどう頑張っても以下のようなものでした。これが、Midjourneyの利用を決心した最大の理由です。
Midjourneyの期待通りだったところ
Midjourneyをとりあえず直感で使ってみて、期待通りの効果を実感したところは以下2点です。
表現の幅の広さ
Midjourneyでは目論見通り、Runwayでは出しづらい非現実的な表現も得意なのだと感じました。
サンプルとなるプロンプトが探しやすい
こちらはWEBサイトのUI上の問題ですが、Midjourneyの方が他人が生成したアウトプットとそのプロンプトが見やすいと感じました。上のインドの神様も、他人の画像にインスパイアされて試してみたものです。
Runway Gen-2でもサンプルは一応見られますが、数が少ないなど、利便性が低いと感じます。
Midjourneyのイマイチだったところ ※暫定
まだマニュアルも見きれないまま1日適当に触っただけなので暫定ですが、Midjourneyにはいくつかイマイチに感じる点もあります。
操作の難しさ
Runway Gen-2に比べるととにかく操作方法が複雑です。Quick Start Guideも用意されていますが、超大作で読むのには根気がいります。
一方でそれは、細かいパラメータ設定が可能ということでもあるので、使いこなせるようになればかなり楽しいと思います。クレジットをいちいち消費する
Runway Gen-2との一番の違いです。Midjourneyではプレビュー画像を出すだけでもクレジットを消費します。本音を言えばマニュアルなんて読まずにあれこれ試してみたいものですが、節約志向の極めて高い私にとってはどうしても抵抗があります。
また画角をスクエアから変更する場合も、余計にクレジットを消費するようなので、16:9のYouTube用の映像を作りたい私にとってはこちらもネックです。出せないものの限界はある
Midjourneyでも、Runway Gen-2と同様に表現できないものがあるのだなと感じました。というのも、一番出したかった「水面から顔半分を出すカッパ」を試してみたら、カエルだったのです。。。
終わりに
今回は、MidJourneyを取り急ぎ直感で使ってみた感想を振り返りました。
まずはMidjourneyを使いこなせるように試行錯誤が必要そうですが、都度都度クレジットを消費するのがやっぱり苦しいです。
今後はRunwayとMidjourneyをどう並走させると役立つか、に付いても考察をしていきたいと思います。
例えばMidjourneyは画像を入力して変更したい部分を指定する、といったこともできるようなので、Runwayで生成した元画像を、Midjourneyでマイナーチェンジさせていく、といった使い方ができると良いかもなと思っています。
この記事をご覧になって、少しでも興味を持っていただいたみなさまは、チャンネル登録で応援をお願いいたします!!
YouTube: https://youtube.com/@bbgalaxy0529
TikTok: https://www.tiktok.com/@play_with_generative_ai
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?