【ChatGPT】メタ認知プロンプティング(MP)とは|LLMsの理解能力を上げる
メタ認知とは
メタ認知とは、ざっくり言うと「自分の考え方や学び方について考えること」です。
例えば、テストで点数が取れなかったとき、ただ「難しかったから」と思うのではなく
どの部分が難しかったのか
どうやったらもっと理解できるのか
次はどう勉強すればいいのか
…のように自分の学び方や考え方について考えることが「メタ認知」です。
メタ認知プロンプティング(MP)のメリット
メタ認知プロンプティングは、大規模言語モデル(LLMs)の理解能力を向上させることが期待されています。
なぜ理解能力が向上するのかというと、人間の内省的推論を模倣することができるからです。
「人間の内省的推論」については以下で解説します。
人間の内省的推論
内省的推論とは、自分の心や考えについて考察すること。具体的には、以下の4ステップです。
①自己認識
②自己分析
③自己評価
④自己反省
内省的推論は、自分自身の考えや行動について深く考えること。自分をよりよく理解し、成長するための手助けになります。
メタ認知プロンプティング(MP)の具体的な手法
メタ認知プロンプトでは、モデルにより深い内省を促すために以下のステップで進めます。
テキストの解釈:
まず、モデルは与えられた文章や情報をちゃんと読みます初期の判断の形成:
読んだ内容をもとに、モデルは最初の答えや考えを思いつきます深い内省:
モデルは、なぜその答えや考えを思いついたのか、背景や理由を深く考えます最終的な判断の確認:
モデルは、最初に思いついた答えが本当に正しいのか、もう一度確認します。そして、なぜその答えを選んだのかの理由も考えます自己評価:
最後に、モデルは自分の答えにどれくらい自信があるのかを評価します
メタ認知プロンプトと他のプロンプトとの違い
以下に「標準的なプロンプト」「Chain-of-Thought(CoT)プロンプト」と「メタ認知プロンプト」との比較を示します。
レストランのピザに関するレビューを分析するタスクを事例に、各プロンプトの違いを見ていきましょう。
標準的なプロンプト
Chain-of-Thought(CoT)プロンプト
メタ認知プロンプト
メタ認知プロンプトの例
引用元の論文を参考にメタ認知プロンプトを作成しましたので、以下を参考にしてみてください。
{input_text} = [ここにテーマやトピックを入力する]
## メタ認知プロンプトのステップ
1. **テキストの解釈**
- モデルは与えられたテキスト`{input_text}`を解釈します。
2. **初期の判断の形成**
- `{input_text}`をもとに、モデルは初期の判断を形成します。
3. **深い内省**
- モデルはその答えの背後にある理由を深く探求します。
4. **最終的な判断の確認**
- モデルは最終的な判断を確認し、その理由を提供します。
5. **自己評価**
- モデルは自身の応答に対する自信を評価します。
参考:プロンプトつく〜るにも「メタ認知プロンプト」が公開されているので合わせて読んでおくと勉強になると思います。
メタ認知プロンプトを使う場面
メタ認知プロンプトは、単純な答えだけでなく、背後にある理由や考え方を深く探求することが重要となる場面でチカラを発揮します。
例えば、以下のようなテーマです。
他にもいろいろな使い道がありそうですが、もっと詳しく知りたい方は「メタ認知プロンプトの使い道を教えて」とChatGPTに訊いてみてください!
メタ認知プロンプトを使ってみた
今回メタ認知プロンプトを検証するために入力したトピックは「サイトの訪問者がコンテンツをより長く閲覧するための方法を考えてください」です。
{input_text} = [サイトの訪問者がコンテンツをより長く閲覧するための方法を考えてください
]
## メタ認知プロンプトのステップ
1. **テキストの解釈**
- モデルは与えられたテキスト`{input_text}`を解釈します。
2. **初期の判断の形成**
- `{input_text}`をもとに、モデルは初期の判断を形成します。
3. **深い内省**
- モデルはその答えの背後にある理由を深く探求します。
4. **最終的な判断の確認**
- モデルは最終的な判断を確認し、その理由を提供します。
5. **自己評価**
- モデルは自身の応答に対する自信を評価します。
上記をChatGPTに入力すると…回答は、以下の通り。
今回のインプットである「サイトの訪問者がコンテンツをより長く閲覧するための方法を考えてください」からは、以下の3つの内省を得ることができました。
コンテンツの質の向上
ユーザーエクスペリエンスの最適化
関連コンテンツの推薦
これら3つの観点をさらにChatGPTに深掘りしてもらえば、もっと具体的な手段に落とし込んでいけそうですね。
引用元
論文:Metacognitive Prompting Improves Understanding in Large Language Models
この記事が気に入ったらサポートをしてみませんか?