chatGPTは誤魔化す
閑話休題になりますが、chatGPTでプロットの制作を進めていくとぶつかるものとして、プロンプトを誤魔化すというものがあります。
コレはchatGPTに関わらず、AI全般に今のところ言える特徴です。
例えば、DeepLなどの翻訳ソフトであれば意訳する程度はまだいいのですが、その単語(あるいは一文)をないものとして読みとばします。
chatGPTの場合、『小学生にも分かりやすい文章で表現する』という構文を入れると、プロットの末尾に『小学生に分かりやすい文章で表現する』という文章をねじ込んできます。
つまり、今のところ特定年齢向けの表現をさせる構文を作ることが非常に難しい物になります。
しかし、こうした構文を使っている方もいらっしゃいます。
では、なぜ?
おそらく、これはWeb記事や説明文的なものであれば有効な構文かもしれませんが、少なくともプロットには有効な構文ではないということです。
AI(人工知能)といいますが、基本的に人工無能と言われた80年代と仕組みはなんら変わらず、与えられたルーティンで与えられた構文に近いものを組み合わせて持ってくるシステムです。80年代と比べてそのパターンがより多くなり、処理速度が向上したにすぎません。
よって過度の期待は禁物ということですね。
この記事が気に入ったらサポートをしてみませんか?