見出し画像

どんな場面でハルシエーションが起こりやすいのか?

AIが「ハルシネーション(幻覚)」を起こすのは、主に以下のような場面です。AIの仕組みを理解しながら、どのような条件で誤った情報が生成されやすいのかを見ていきましょう。

1. 不完全または曖昧な質問をしたとき

AIは「確率的にもっとも適切と思われる応答」を生成しますが、質問が曖昧だと、適当な推測を含めてしまうことがあります。

「最近発表されたAIの研究について教えて」(どの研究か特定できない)
➡ AIは架空の研究成果を作り出す可能性がある
対策
「2024年に発表されたGPTの改良に関する論文を教えて」(時期や分野を明確にする)

2. データに基づかない質問をしたとき

AIは学習データの中からパターンを見つけて回答します。しかし、学習データに存在しない情報を聞かれた場合、「もっともらしいけれど事実ではない答え」を生成することがあります。
例 *執筆は2025年2月時点
「2026年のiPhoneの新機能を教えて」(未来のことは学習データにない)
➡ AIは過去の傾向から推測し、架空の新機能を作り出す
対策
「過去のiPhoneの進化の傾向から、2026年モデルの可能性を予測して」(推測であることを明確にする)

3. 専門的な知識が求められるとき

AIは幅広い知識を持っていますが、専門的な内容では誤った情報を生成することがあります。特に、細かい技術仕様や医学・法律などの正確さが求められる分野では、ハルシネーションが起こりやすいです。

「新しい医薬品〇〇の副作用は?」(誤情報は大きなリスクにつながる)
➡ 実際には存在しない副作用を答えることも
対策
「公式サイトや論文を参照しながら、医薬品〇〇の副作用を説明して」(出典を求める)

4. AIに創造性を求めたとき

ストーリー作成やアイデア出しの場面では、AIは「創造的な回答」を求められるため、事実とフィクションが混ざりやすくなります。

「実在する歴史上の人物が登場する短編小説を書いて」
➡ AIは実在の出来事とフィクションを混ぜた内容を生成
対策
「史実に忠実な歴史小説の概要を作り、それをもとに創作して」(フィクションと事実を分ける)

5. トレーニングデータに偏りがあるとき

AIの知識は学習データに依存しています。そのため、データに偏りや欠落があると、誤った推論をしてしまうことがあります。

「〇〇という国の最新の経済状況を教えて」(学習データが古いと間違った情報を出す)
対策
「最新の情報を調べて教えて(ウェブ検索機能がある場合)」


6.ChatGPTの特徴は?

試しにChatGPTに関して調べてみました。
ChatGPTのトレーニングデータは、公開されているインターネット上の情報、書籍、論文、ウェブページなどをもとにしていますが、最新のデータは含まれていません
具体的な学習データの最終更新時期(知識のカットオフ)は、モデルのバージョンによって異なります。例えば:

  • GPT-4(ChatGPTの最新モデル)のカットオフは 2023年10月(執筆時点の情報)

  • GPT-3.5 のカットオフは 2021年9月

 これより新しい情報については、ウェブ検索機能が有効な環境であればリアルタイム情報を取得できます。ただし、トレーニングデータ自体は更新されないため、最新の出来事や発表には注意が必要です。
 ウェブ検索機能が有効な環境とは、ChatGPTがリアルタイムのインターネット検索を行える環境のことを指します。
ウェブ検索が無効な環境とは、以下の状況です。

  • 通常のChatGPT(無料版) → ウェブ検索機能なし。

  • オフライン環境や、検索機能がOFFの設定 → 最新情報を取得できない。

  • API版 ChatGPT(デフォルト設定) → 外部検索機能は組み込まれていないため、最新情報は持たない。

 ウェブ検索機能が有効かどうかは、利用している環境(ChatGPTの設定やプラットフォーム)によるので、設定を確認するとよいでしょう。


7.まとめ

AIのハルシネーションは、
曖昧な質問
未知の情報
専門的な知識
創造的なタスク
データの偏り
などの条件で発生しやすくなります。
プロンプトを工夫することで、より正確な情報を得ることができるので、適切な質問の仕方を意識しましょう!

次回は、ハルシネーションから少し離れて、プロンプトを作成する上で理解しておくといい原理として、「システムプロンプト」に関して説明していきます。


いいなと思ったら応援しよう!