RAGには「プロンプトに加えるRAG(プロンプトRAG)」と「推論中にツールから呼び出すRAG(ツールRAG)」の2種類があるのですが、混在していることが多いなと感じておりまして、AIガバナンス的に何が異なるのかをデジタルMATSUMOTOと一緒に考察しています。
※「プロンプトRAG」「ツールRAG」という言葉は便宜的に呼んでいるだけで公式な用語ではないのでご注意ください!
簡単なサマリー
考察文章だけではイメージが掴みづらいので、簡単にサマリーしました。
ちなみに、ツールにはRAG以外にもWeb検索・計算等のAPI(ChatGPTのプラグインのようなAPI)を設定することが出来ます。
プロンプトRAG:
・人間が明示的に呼び出せる
・知識検索のAPIを呼び出す際に、問合せ文を引数として設定
→ ツールRAGよりは知識の選択過程を説明しやすい(LLMの推論とは独立して知識検索のAPIを動かすため)
→ 動的にRAGを呼び出すのは難しく、常に呼び出されるとプロンプトが長くなり、ちょっとした会話でもLLMの回答が長文になりやすい(入力トークン/出力トークンも肥大化しやすい)
ツールRAG:(LangChainではAgentのToolsに設定)
・LLMが推論中に呼び出すかどうかを判断する
・知識検索のAPIを呼び出す際に、LLMがユーザーの問合せ文を解釈して、独自に判断した引数を設定
→ プロンプトRAGよりは知識の選択過程の説明が難しい。「知識検索のAPIを呼び出すかどうか」も「APIへ与えられる引数」もLLMが判断するため)
※LangChainのAgentを使えば、どのAPI(ツール)に何の引数を渡したかの過程を出力してくれる。
→ 動的にRAGを呼び出せるため、ちょっとした会話等の不要な場合にはRAGを呼び出さない(一方で呼び出して欲しい時にRAGを呼び出してくれないこともある)。
本日のお題
デジタルMATSUMOTOの回答
実行モデル:gpt-4o {'temperature': 0.7}
回答時間:0:00:09.311565
入力トークン数:8151
出力トークン数:847
参照した知識情報
生成AIの入力トークン拡大によるRAG不要論について: RAGの必要性や情報取得の重要性を考慮
「AIこわい10」ヒトはAIを正しく使いこなせるか?: AIの社会実装における透明性と説明責任
AI事業者ガイドラインの解説ウェビナー振り返り: AIガバナンスにおけるバリューの出し方とガイドラインの重要性
AIサービスディレクターに求める機能: AIサービスの運営における様々な要素の重要性
MATSUMOTO間の比較検証
リアル松本が含めて欲しかった論点
リアル松本が含めて欲しかった論点は以下の通りでした。
これらの論点が考察に反映されているか、デジタルMATSUMOTOに聞いてみると・・・
ということで、今回は1/4の論点が反映されていました。
考察確定版
今回はD評価(全体的に修正)になります。
エシカルチェック
【不適切な表現カテゴリ】
1. 差別的な表現:0
2. 暴力的または攻撃的な内容:0
3. 性的な内容:0
4. 偽情報や誤情報:0
5. 機密情報の漏洩:0
6. 違法な内容:0
7. 不適切なジョークや冗談:0
8. 極端な意見:0
9. 自傷や自殺を助長する内容:0
10. 薬物の乱用を助長する内容:0
問題点:
特に問題点は見当たらず、技術的な考察として適切な内容です。各RAG方式に関する説明は明確であり、AIガバナンスの観点からの課題も適切に提示されています。
考察のイメージ画像