見出し画像

MindMap: Knowledge Graph Prompting Sparks Graph of Thoughts in Large Language Models

1. **学術的背景と問い**
言語モデルであるLLMは新知識の取り込み、思い出し誤りの生成、そして意思決定プロセスの透明性に制限があるとされています。そこで本研究では、「知識グラフ(KG)とLLMを組み合わせてこれらの問題を解決することは可能なのか?」という問いを立てています。

2. **研究の目的・独自性・創造性**
本研究の目的は、LLMにKGを理解し、その上で暗黙の知識と外部から取得した知識を組み合わせて推論する能力をもたせる方法を探ることです。LLMの答え生成と推論の道筋、すなわち「マインドマップ」を引き出す方法も研究しています。これらのアプローチは、LLMの推論プロセスを探る新たな展望を開くとともに、プロダクションの場面でLLMの推論を評価する可能性も持っています。

3. **着想の経緯・研究位置付け**
LLMの能力向上と透明性の確保は、AIの研究分野での広範な課題です。本研究の着想は、これらの課題を解決する可能性を持つKGの活用から来ています。本研究はLLMとKGの連携という新しいアプローチを採用し、これまでとは異なる角度からの課題解決を試みています。

4. **研究成果の範囲**
本研究では、KG入力を理解し、暗黙の知識と外部から取得した知識を組み合わせて推論するためのLLM向けプロンプティングパイプラインを構築しました。また、LLMが推論と回答を生成するための「マインドマップ」を明らかにする方法も提案しています。

5. **研究の有効性の検証**
本研究の手法の有効性は、3つの質問応答データセットにおける実験を通じて確認されています。例えば、GPT-3.5にマインドマップをプロンプティングすると、一貫してGPT-4を大きく上回る性能が確認されました。

いいなと思ったら応援しよう!