見出し画像

用語集: 「ハルシネーション」 <- AIだけではなく、ニュース界隈でも情報操作による「ハルシネーション」だらけかもしれません(笑)

今回は「ハルシネーション」について見ていきましょう。

_*_*_

ハルシネーション?

「ハルシネーション(幻覚:hallucination)」: 本来存在しないものを存在すると認識したり、実際とは異なる形で知覚したりする現象です。

AIにおけるハルシネーション

近年、AI、特に生成系AIが注目を集める中で、「ハルシネーション」という言葉は、AIが生成した内容が事実と異なる場合に用いられるようになりました。

  • 具体例:

    • 存在しない人物や出来事をあたかも事実のように生成する

    • 質問の意図を誤解し、的外れな回答をする

    • 矛盾した情報や論理的におかしい情報を生成する

ハルシネーションが発生する原因

  • 学習データの偏り: AIは学習データに基づいて生成を行うため、学習データに偏りがあると、偏った情報や誤った情報を生成する可能性があります。

  • モデルの複雑さ: 大規模な言語モデルでは、パラメータ数が膨大になり、モデルの挙動が複雑化し、予測不能な結果が生じる場合があります。

  • 曖昧な質問: 質問が曖昧だったり、複数の解釈が可能な場合、AIは誤った解釈に基づいて回答を生成することがあります。

ハルシネーションの問題点

  • 誤情報の拡散: AIが生成した誤った情報が拡散され、社会に混乱をもたらす可能性があります。

  • 信頼性の低下: AIに対する信頼が低下し、AIの活用が阻害される可能性があります。

ハルシネーション対策

  • 高品質な学習データ: 多様で高品質な学習データを用意することで、ハルシネーションの発生を抑えることができます。

  • モデルの改善: モデルの構造や学習方法を改善することで、より正確な生成が可能になります。

  • ファクトチェック: AIが生成した情報を常に確認し、事実と異なる場合は修正する必要があります。

  • プロンプトエンジニアリング: 質問の仕方を工夫することで、AIがより正確な回答を生成できるように促すことができます。

まとめ

ハルシネーションは、AIの発展に伴い避けて通れない課題です。ハルシネーションを完全に防ぐことは困難ですが、適切な対策を講じることで、その発生確率を下げることができます。

いいなと思ったら応援しよう!