見出し画像

DALL-Eを使用し、Midjourneyに迫る!?

 5月から、Midjourneyをお休みすることにして、DALL-E一本で制作するようにした。今の段階においては時間的な問題もあり、また、筆者の執筆活動に掲載する画像としては、DALL-Eで十分であるのが主な理由である。

 お蔭様で、筆者主催のZOOMセミナーの教材作りにおいて、ChatGPT全体をフルに活用することで、すこぶる効率の良い制作環境になっている。

 今回は、AIモデルをスタジオや紫陽花の花やバラの花を背景に、如何に画像生成専門AIのMidjourneyに迫れるかの実験を行なった。

 DALL-Eもかなり進化してきており、従来の一部画像削除や修正が容易にできるので、今までIDやFormatなどを弄りながらの時間が省け、エッセイやコラムの挿絵としては、最短最適なものが生成できて重宝しているところである。

 AIモデルを生成する時に重要なのは、顔のディテール、全体のバランスと照明、コスチュームの生地の選定などなど。プロンプトに拘ると、AI側に複雑な注文を突きつけることになり、限界もあり、想定外のAIモデルが誕生することもしばしば。

 最後の和服の二人のモデルは、完全に想定外の画像としてDALL-Eが生成したものだが、筆者のイメージとは程遠いところへ飛んで行ってしまった。しかし、DALL-Eはそのようにプロンプトを受け止めたのであろうと。

 AIモデル作品としては、トップから3枚目のものが自然なイメージとして生成されている。複雑な照明や映り込みなどを設定したとしても、画像生成専門のMidjourneyと比較すれば、やや劣るように思えてならない。

 画像生成AIを使用して問題になるのは、時折、ネガティブ画像が生成されることである。例えば、指の本数が6本であったり、左右の手が反対に付いていたり、腕や足が3本あったりと、奇妙な画像が生成されることもある。

 DALL-Eでは、そのネガティブな部分を選び、正常なものへの修正を伝えると、不要なものの削除や正常な手指を作るなどは楽々修正が可能になったので、ホッとしている。

 最後に、毎日のエッセイやコラムを執筆する時に、画像マテリアルがない場合は、筆者の記事をDALL-Eに読ませて、イメージしたものを生成させて使っているので、本当に助かっている。

スタジオでのAIモデル
★★
スタジオでのAIモデル
★★★
AIモデル(紫陽花と池を背景)
トップ画像モデルのドレスだけを替えたもの
★★
AIモデル(薔薇と池を背景)
★★
AIモデル(着物着用+紫陽花)
想定外のAIモデルとして生成された

▼ChatGPT-4による感想

このエッセイは、画像生成AIの進化と実際の使用感に焦点を当てており、特にDALL-EとMidjourneyの比較を通じて、筆者の個人的な体験と観察を詳細に記述しています。筆者は、Midjourneyの使用を休止し、DALL-Eに完全に移行した理由を時間効率と画質の適切さで説明しており、これがエッセイやコラムの画像生成における最適解であるとしています。

特に注目すべきは、筆者が画像生成において直面する様々な課題や不具合(例えば、不自然な体の部位の生成)にも関わらず、DALL-Eが提供する修正機能の進化により、これらの問題を比較的簡単に解決できるようになった点です。また、筆者は、画像生成AIが時に「想定外のAIモデル」を生み出すことにも言及しており、これがAIとの創造的な協働の一環であると捉えているようです。

このエッセイは、AI技術の具体的な利用例を通じて、技術の実用性とその限界について現実的な洞察を提供しています。また、日々のエッセイやコラム作成における画像マテリアルの不足を補うためにDALL-Eを活用していることは、生成AIがクリエイティブなプロセスにおいてどれほど重要な役割を果たすかを示す良い例です。

全体として、このエッセイは画像生成AIの実践的な使用における課題と解決策に対する深い洞察を提供しており、技術進化に伴うクリエイティブな適応の必要性を強調しています。

サポート、心より感謝申し上げます。これからも精進しますので、ご支援、ご協力のほどよろしくお願いいたします。