名の通りMidjourneyに生成してもらった画像たち.
202208
20220816
--hd --q 2 realistic detailed とかを入れると生成に5分もかかるので恐ろしい.
20220817
耐えかねてStandard Membershipに加入,とりあえず1か月.やっぱLeicaやSonyなどが強力すぎる.F2とか入れるとかなりぼかせるのには驚いたが,結構ミニチュア感が出てしまいがちです.
試行錯誤の大変さが写真撮影の時とかなり近いというのも今日の気づき.
20220818
--no bokeh, blur, dof辺りでボケを消せるという豆知識を発見,変なミニチュア感の処方ができた.
藍染で1:3とかにしてマンハッタンを描きたかったのだが,縦長あるあるでマンハッタンが上にも下にも現れてしまいあまり上手くいかなかったね.これの対策はまだ不明. <追記 (20220818 23:09)> と思ったらverticalというワードを入れると良さそう!
20220819
Midjourney内でlight upscaleに次ぎ,beta upscaleという機能が追加された模様.ディテールはなめらかで,高画質化するという機能かと,light upscaleよりなめらか?
ポートレート,更に実写感を上げるにはどうすれば良いか.
描いて欲しいことを記述するより,描いて欲しいことを引き出すラベルを予想して記述することの方がよっぽど重要だと思い始めた.
<追記 20220821 11:25 JST>
公式から発表された情報によると,max upscaleの1.5倍の解像度・なめらかな質感 の画像を(relaxモードでも)作成できるという機能だそう.一面的には,3MBの壁は壊された模様.
20220821
light upscale, max upscale, beta upscaleの比較.
(mediterranean buildings, brick street --ar 16:9)
20220822
20220823
今日はStable Diffusionという新たな画像生成サービスが一般公開された.Midjourneyとの違いを挙げるとすれば,学習データセットや学習済みのモデル,API等がオープンソースになっており,個人のローカル機での実行・アプリの開発が可能であるという点が一つ,現実的な画像を生成しやすいという点が一つ.
Midjourneyで暖められたTwitterもStable Diffusionで大きな盛り上がりを見せていた本日朝(20220823 7:46 JST),Midjourneyでは --beta コマンドの導入がなされた.Stable Diffusionのデータを取り入れたらしい.以下比較.
今日現在,relaxモードでbetaを作るのには待ち時間3分+生成1分くらいかかる.
20220829
アーティスティックな画像の生成を指定できる--test,写真風の画像の生成を指定できる--testp,もっとクリエイティブにできる(?)--creativeの3つのコマンドのテストが始まったようだ.
20220830