今さら聞いてもいいIT用語 #18: 「ハルシネーション」
「ChatGPT」などの生成AIが広く使われるようになって、ちょくちょく目にする単語「ハルシネーション」。
Hallucinationという単語の本来の意味は「幻覚」です。
生成AIの文脈でいうと、「もっともらしいウソをAIが生成すること」をいいます。
たとえば、ChatGPT(GPT-3.5)に以下のように尋ねました。
するとこのように返ってきました。
んー、僕はキャリアコンサルタントでもコーチでもキャリアアドバイザーでもないのですが…
続けて、以下のように尋ねてみました。
その回答はこうでした。
100%毎日放送してますよ!
というように、まるでAIが「幻覚」を見て出力しているみたいなので、この現象をハルシネーションといいます。
ハルシネーションは以下のような原因から発生すると言われています。
・学習データに間違いがある
・学習データが不足している
・学習データを誤って組み合わせている
Web上に人間がアップした内容に誤りが含まれていることもありますし、AIモデルによっては最新の情報は学習していないこともあります。
完全な学習データを用意することはできないので、ハルシネーションを完全になくすことはできないとされてます。
では、どのように対処する事ができるでしょうか?
大前提として、生成AIを利用する際は、「偽情報や不正確な情報を回答する」可能性を念頭に置くことです。
出てきた回答をノールックで丸ごとコピペをせずに、内容が正しいかどうか、適切かどうかを検証することが必要です。
もうひとつ、有効な方法としてWebブラウジングの機能があります。学習データとして存在していなくても、Webから調べたものを踏まえて回答をし、さらに参照URLを添付してくれます。
この機能を使えば最新の情報もより正確であることが期待できますし、参照URLからの検証もラクです。
たとえば、ChatGPTも最新のAIモデルGPT-4oを使ってみました。すると、以下のようにかなり正しい回答を返しつつ、参考URLも添付してくれました。
生成AIを使う上でハルシネーションが発生しうるということが前提ですが、対処しやすいようにAIサービスも機能改善をしつつあります。便利に使っていきましょう。
耳から聴きたい方はこちら!
↓↓