
生成AI時代と社会人基礎力:自責思考② ~生成AIの出力内容改善の方程式~
古今和歌集の歴史的意義(イントロ/蛇足)
古今和歌集は、日本の和歌文化において大きな節目となった作品集です。
それ以前の万葉集の時代は、詠み手の自由な発想による「混沌」とした世界観を楽しむ風潮がありました。
しかし、古今和歌集では「七五調」という形式をはじめ、
文芸としての一定のルールや秩序が確立され、
後世の和歌や文学に大きな影響を与えました。
個人的には勅撰として国の主導者がこうした
価値のある整理整頓を進めてくださったという事例に
一定以上の憧憬の念を抱いております。
このアナロジーを現代に当てはめるならば、
混沌とした生成AI活用の黎明期である令和において、
私たちがいま取り組むべきなのは
「生成AI活用における古今和歌集」の制定、
つまり実用に耐えうるルールづくりではないか——と考えています。
前回の記事では、「生成AIが思うように使えない」と感じるとき、
即座に「AIが使えない」と断じるのではなく、
「自責思考」で考えることが重要であると主張しました。
プロンプト(指示文)やモデル選定、データ整備の仕方など、
こちら側で改善できる点は意外なほど多いからです。
今回は、そうした「自責思考」を実行に移すための、
具体的な観点整理を紹介していきます。
いわば、生成AI活用の「七五調」をどう定めるか、
どのようにルール化し、成果を高めていくかを解説していきたいと思います。
生成AIの出力結果を「自責視点」で改善するための観点整理
ここからは、生成AIの出力が期待通りでないときに、
人間側でどんな工夫をすれば良いかを、7つの観点でまとめています。
前回の記事に続く内容ですが、はじめての方でも読みやすいよう、なるべく詳細に解説していきます。
生成AI活用における「古今和歌集」としての第一歩になることを目指して記述をし始めます。
なるべく表層的な内容ではなく、
本質的な思考に繋がるように心がけますが、
至らぬ点はあるかと思いますので、
叩き台として皆様の思考のきっかけになれば幸いです。
実務上の前後は個々の事象で想定されるものの、
基本的には番号が若い順から見ていくことで
たいていの出力は改善が出来るのではないかと考えております。
1. 定性的な指示文(プロンプト)の見直し
まず見ていくべきは実際に自身が出している指示内容でしょう。
指示が間違えていれば、ミスリードをしていれば当然正しい出力を得ることが出来ません。
1-1. ユーザープロンプトの見直し
エンドユーザー(自分自身を含む)が入力する指示文の最適化を図ります。
「誰向けのどんな情報が欲しいか」を端的に伝えられているか?
文字数や表現を絞りすぎていないか?
必要に応じて具体例や制約条件を付与しているか?
たとえば「この文章を3行で要約して」「出力形式は箇条書きで」など、
形を明確に示すと、生成AIの出力精度が大きく変わることがあります。
1-2. システムプロンプトの見直し
システム側(開発者側など)が設定できるロールやコンテキストも再検討しましょう。
「あなたは法律の専門家として答えてください」「語尾は「です・ます調」に統一して」など、
AIに与える初期設定を工夫するだけで、回答の質が変わる場合があります。問いに対して 「どのような情報をどの程度開示するか」 も合わせて指示することで、余計な脱線や誤解を防ぎます。
2. LLMモデルを見直す
2-1. モデルを変更する
現在利用しているLLMそのものを、別のモデルに切り替える選択肢です。
ClaudeからGPTへ、あるいはGPTのバージョンを上げるなど、モデルそのものの違いを検討します。
モデルの学習データや得意分野が異なるため、要件に合致するモデルを見つけると性能が劇的に向上するケースもあります。
2-2. モデルは変えずにチューニングする
2-2-1. ハイパーパラメータの変更
推論時に設定する`temperature`や`top_p`、`max_tokens`などを調整しましょう。
`temperature` は0に近いほど保守的(回答が安定)、1に近いほど多様性重視(クリエイティブ)。
`max_tokens` は出力の最大文字数に影響。回答が途中で切れてしまう場合は増やすと良いでしょう。
2-2-2. 転移学習
モデル全体を作り替えなくても、追加で微調整するInstructionチューニングやLoRAなどのアプローチがあります。
企業内の独自データを学習させるなど、特定ドメインに特化させると、より正確な回答を得やすいです。
3. 参照する外部データや独自データを見直す
3.1. インプットデータの種類別に見直しをする
処理の対象データ
例:売上データ、Web記事、センサーデータなど
「そもそもどのデータをAIに食わせるのか」を再検討し、用途に合わないデータを省く。
解釈の定義データ
例:分析手法や重要記事の定義、ドメインルールなど
モデルが理解すべきルールや指標をどの程度、明確に提示しているか見直す。
出力の定義データ
例:出力フォーマット、文体やトーンの指定
「最終的にどういう形で回答が欲しいか」をデータとして与えると、余計なブレが減る。
ユーザーFBデータ
例:「よかった」「わかりやすい」といった評価・レビュー
モデルやプロンプトの継続的改善に活用することで、ユーザーの満足度を段階的に高められる。
3.2. インプットデータの量
3.2.1. 抽出ドキュメントの圧縮
大量のドキュメントを、そのまま全部AIに渡そうとしていないか?
要約やフィルタリングで必要最小限の情報に絞ると、トークン上限を意識しながら、ノイズを減らすことができます。
3.3. インプットデータの質
3.3.1. チャンク分岐の最適化
大きな文書をどう分割(チャンク化)するか。
トークン制限や文章の意味単位を考慮して切り分けると、検索やEmbedding精度が向上しやすい。
3.3.2. ナレッジグラフを渡す
ドメイン知識を構造化して入力する。
回答の論理性や正確性を高める「補助線」として機能します。
3.3.3. ベクトル化する際のロジックの調整
Embedding手法や類似度計算アルゴリズムなど、検索ロジックを最適化。
同じ単語でも文脈に応じて意味が異なる場合、より精緻なモデルでベクトル化するとヒット精度が向上。
3.3.4. リランキング
一旦検索した候補を、そのままAIに渡さずに、関連度の高い順に並び替えを行う。
ノイズを減らし、回答のミスを防ぐ効果があります。
4. 検索並びに処理の実行を見直す
4-1. 質問/指示に対応するデータを検索する方法
4-1-1. ハイブリッド検索
キーワード検索とベクトル検索を組み合わせる手法。
網羅的に文書を拾いつつ、高い関連度の文書を正しく抽出できる。
4-1-2. HyDE
**仮説文章(Hypothetical Document Embeddings)**を生成AIに作らせ、それを検索クエリに用いる。
ユーザーの質問が曖昧なときでも、モデルが意図を補完して検索精度を向上させる。
4-2. 検索したデータに対しての処理方法
4-2-1. 多層解析
一回の問い合わせですべて解決しようとせず、
再帰的にモデルを呼び出して要約・比較・補足を行い、最終回答を導く。ステップを増やすことで、根拠の明示や確証度の向上につながる。
5. 評価・モニタリング体制
ユーザーのフィードバックを定量・定性の両面から集め、継続的に改善ループを回す。
出力品質をスコアリングし、定期的に再学習やFine-tuningを行うことで、AI活用が安定しやすい。
6. 生成AIの出力制御(ガイドライン、ガードレール)
コンプライアンスやブランドイメージを損なわないよう、不適切表現や有害情報のフィルタを導入する。
業務で使う場合は「ビジネスルール」「顧客情報の扱い」など、守るべき基準を明確化しておくと安心です。
7. ハイブリッドな手法の組み合わせ(プラグイン/ツールの活用など)
計算や専門分野の推論は外部ツールを呼び出して補完し、LLMはやり取りに特化する形をとる。
たとえば「Python実行環境」「外部データベース」「API連携」を使えば、複雑なタスクもカバーできる。
おわりに
いかがでしたでしょうか。今回は、生成AIを「使えない」と一蹴するのではなく、
自責思考でどのような改善策があるかを、7つの観点に分けて解説しました。
前回の記事では、人間関係のマネジメントと生成AIへの向き合い方が似ていることを述べました。
そこに引き続き、今回は生成AI活用の具体的な「ルール化」を、
古今和歌集の時代に例えながらお伝えしました。
古今和歌集によって定まった「七五調」の確立
生成AI活用における、プロンプト・モデル・データ整備・検索手法などの整理
この2つの時代の「ルール化」を重ね合わせることで、
混沌から一歩抜け出し、使いこなしのフェーズに進むヒントが得られるのではないかと思います。
「AIが使えない」「効果がない」と他責のまま留まるのは簡単ですが、
そこには成長も喜びもありません。
自責視点で試行錯誤するほど、
生成AIも、人間関係も、きっともっと面白くなるはず。
ぜひ、身近なところから実践してみてください!