(DALL-E3)11月のchatGPT4更新後の変化を紹介。
こんにちは、こんばんは、お久しぶりです。キレネです。
冬の寒さが心身の双方に染み、自分も活力が大きく下がってます。
そんなこんなしてる状態で書いてますが、今回は
「バージョンアップしたchatGPT4によるDALL-E3の新たな仕様」についてです。
前回の記事で紹介した内容との違いも振り返ります。
以前のDALL-E3生成との変更点
1度の生成枚数が基本4枚から2枚に変更
画像生成で、試行回数と枚数を重要視してる人にとっては
かなり大きな変更です。
しかし「生成数が減った事」がマイナスかどうかは、
次の内容が大きく関係してきます。
同一プロンプトでも生成に違いが出るランダム性の追加
一般的には「seed値」と呼ばれるランダム性がありますが
以前のDALL-E3はseed値が機能してませんでした。
以前の4枚生成はchatGPT4が別々のプロンプト(英文の表現)
を別々に組んで、生成結果に違いを付ける仕様でした。
英文プロンプトのみで結果が出るので、
下の画像のように違いが大きくなってしまいます。
この時はプロンプトの変化を調整して
下のような近い画像の生成も出来ました。(現在は再現できません)
DALL-E3は新たにseed値とは別のランダム性が追加され
「同一のプロンプトで2枚生成する」ようになりました。
というわけで以前のDALL-E3と比べて生成枚数が減ったものの
ランダム性が出た事で優劣は付けにくいわけです。
他の機能
生成した画像に変化を命令する
命令文は色々ありますが、自分は「上の画像に~」から始まる
内容で変化を付けてます。
画像の縦横比や、ポーズや要素の追加・変更が出来ます。
画像を入力し画像を生成する
AIイラストでは画像を読み込ませて生成するi2i(image to image)
がありますが、DALL-E3の場合は別物です。
一般的なi2i(image to image)は参照した画像の線や色合い等を元に
プロンプトや設定で変化を付けた画像を生成します。
DALL-E3は入力した画像の表現や要素を文字に起こす
i2t(image to text)を行い、そこに自分の指示した命令や条件に従って
t2i画像生成をします。
つまり元にした画像の原型を1度なくし、
特徴や表現を持った別物の画像に作り直します。
このように配置や配色を近づけた別の画像になります。
著作物・人物のワード回避
有名なもの・キャラクターやイラストレーター名の作風など
直接的な入力はchatGPT4がブロックします。
このワードブロックもアップグレードが進んでるので、
「この前まで使えた表現が使えない」等が起こり
chatGPT4版DALL-E3ではキャラクターや作品の再現には向きません。
ですが独自のテイストやスタイルなどを狙うと良い1枚が出来たり、
画像を読み込んで恰好やファッションスタイルを文字に起こしたり、
通常の画像生成サービスとは全く別の使い方を求められます。
アニメ風の縦画像の注意点
アニメはテレビの横長映像をイメージするようで、
縦長画像を生成すると縦に傾けた横長画像になりがちです。
ここはDALL-E3の更なる向上に期待です。
最後にお知らせ
今回の記事のような自分のDALL-E3のプロンプトや機能の情報、
stable diffusionに関する知識など自分の活動や気になった事を気軽に記す
クローズな場を作ろうと考えてます。
今のところnoteのメンバーシップを第1候補で考えてますが、
機能や使い勝手の面によっては別に移るかもしれません。
近々、そう考えた経緯と一緒に発表しようと思います。
こちらに衣服のプロンプトを纏めた記事をマガジンにしてます。
AIイラストに関する個人ブログも活動してます。
ブログではnoteと違ったスタイルでプロンプトを紹介したり、
記事を投稿したりしてます。
この記事が役に立った、助けになったらスキやフォロー、SNSでの反応や拡散お願いします。記事を作る励みになります
それでは、良きAIイラストライフを!
この記事が気に入ったらサポートをしてみませんか?