【AI】ChatGPTはブームを超えてインフラとして定着するぞ③
⚫️まず告知
いよいよ明日↓
⚫️そして画像生成AI↑
ここんとこいろんな画像生成してみた、いろいろやっていていくつか気づいたことがある。
使ってるのはスマホアプリレベルなので、本格的なサービズでは簡単にできるのかもしれないが、
苦手な描画があるようだ。
ズバリ横になってる、あるいは倒れ掛かっている絵面。
参照画像にそういう画像をら使うと、変な格好になったり、普通に立ってる画像になったり、できないとは言わずに違うポーズで誤魔化してくる。
ハルシネーション(Hallucination)かな?
⚫️画像生成AIが苦手なこと
画像生成AIは、一般的には様々な種類の画像を生成することができまるが、特定のタスクや条件において苦手な場合もあるらしい。
一般的な苦手な画像の例としては、以下のようなものが考えられる:
1. 複雑な背景や詳細なテクスチャを持つ画像:複雑な背景や細かいテクスチャを持つ画像の生成は、AIにとって難しい場合がある、例えば、森の中や市街地の風景など、多くの要素が詰まった画像は、AIにとって難解な課題となることがある。
2. 珍しいまたは非現実的な対象:AIは、普通の日常的な対象や風景については比較的正確に生成できることが多いが、珍しい対象や非現実的なものに関しては、正確な生成が困難となることがある、例えば、幻想的なクリーチャーやファンタジーの風景などが該当する。
3. 構造的に複雑なもの:AIは、シンプルな形状や構造を持つものに対してはうまく対応できるが、複雑な構造や形状を持つものに関しては苦手。例えば、高層ビルのディテールや細かな人間の表情などが挙げられる。
以上の例は、一般的なパターンですが、AIの進歩によってこれらの制約は少しずつ解決されてきている。
⚫️ChatGPTが苦手なこと
私が気づいたのは、特に笑い話、まだユーモアは無理かな?
それから「である調」に直せない
とかね
本人に聞いてみた
ChatGPTには以下のような苦手な側面がございます。
1. 複雑な文脈や専門的な知識が必要な場合、正確な回答をすることが難しいである。例えば、高度な科学的な問題や専門的な技術に関する質問に対しては、限定的な情報しか持っておらず、完全な正確性を保証することはできません。
2. ユーザーからの明確な指示や追加の文脈がない場合、一貫性や特定の目的に沿った回答を提供することが難しいである。会話の流れや具体的な要求がないと、回答が曖昧になることがあります。
3. 感情や倫理に関連する問題について、一貫性や倫理的な判断を行うことが困難である。感情的な問題や道徳的なジレンマについては、個別の倫理的なフレームワークや個人の価値観によって異なる解釈や判断が生じることがあります。
以上のような制約がありますが、ChatGPTは幅広いトピックや一般的な質問に対して理解と応答を行うことが可能です。ただし、完全な正確性や個別の要件に応えることは保証できないため、情報の確認や詳細な調査が必要な場合は、専門家や信頼できる情報源に相談することが推奨されます。