【ChatGPT初心者向け】指示のコツ - モデルに "考える "時間を与える
今回もOpen AIが公式発表していた「プロンプトエンジニアリングでより良い結果を得るためのコツ6点」から一つご紹介します。
モデルに "考える "時間を与える
Open AIの公式発表を翻訳すると、
AIに時間をかけさせることで、ミスが減るとのことです。
では、どのように指示をしたら"考える"時間を与えることができるのか?
Open AIは次の3つの方法を紹介しています。
一つずつもうちょっと詳しく解説します。
1.結論を急がず、モデルに自己解決を促す
まずは、悪い例と良い例を見比べてください。
悪い例
良い例
悪い例では、すぐに答えを求めています。そのため、AIは与えられた情報に基づいて、最も可能性の高い答えを生成することに集中して回答します。
一方、良い例では、問題について考えるように促しています。これにより、与えられた情報に基づいて、さまざまな可能性を検討するようになります。
日常の相談事など、答えは一つだけではないことが多いと思います。
そのため、何かをAIに相談する際は考える時間を与えて、様々な回答を出力してもらい、その中から自分で選択するのが良いと思います。
2.インナーモノローグまたは一連のクエリを使用して、推論プロセスを明確にする
インナーモノローグとは?
インナーモノローグとは、モデルが考えるべきことを言語化することです。
一連のクエリとは?
一連のクエリとは、段階的な質問のことです。
悪い例と良い例を見てもらうのが分かりやすいと思いますので、見比べてみてください。
悪い例
良い例(インナーモノローグを使用)
良い例(一連のクエリを使用)
悪い例のように結論を急ぐように指示すると、 ChatGPTは、単純な答えを出す可能性があります。
良い例のように、インナーモノローグまたは一連のクエリを使用することで、すぐに結論を出すのではなく、複数の視点からレストランを評価し、より詳細で有益な回答を出してくれる可能性が高まります。
3.過去の回答を振り返って確認する
参照する情報が膨大な場合など、モデルは時に重要な点を見落とすことがあります。
そのため、過去の回答を見直し、何か見逃していないかを確認することも重要です。
例えば、「先ほどの説明で何か重要な点を省略していませんか?」と質問することで、モデルが以前の回答を再評価し、補足情報を提供することがあります。
それでは、悪い例と良い例を見比べてみてください。
悪い例
良い例
悪い例では、論文を見返す処理を行わないため、重要な内容を見落としていても気付くことができません。
一方、良い例では、論文を要約したうえで再度論文を見返すことにより、漏れを防ぐことができます。
GPTsを作成していて、出力が安定しないことがあれば、この方法を試してみるのも良いかと思います。
初心者向けの記事はこちらのマガジンにまとめていますので、
良かったら他の記事も見ていってください。