見出し画像

生成AIのハルシネーション(幻覚)......AIはあくまでも補助ツール......

生成AIツールは、自分の作業を効率よくする補助ツールであり、Goal(回答)が予測できないことには極力利用しないようにしています。でも、そのケースに遭遇した時には、そもそも自分が調査しようとしたStepを行い、結果をConfirmするようにしています。ほとんどのケースでChatGPTを利用していますが、作成時の事実と創作は異なるので、明確に分けて使うことが必要です。時にハルシネーションがあるので、「生成AIは使えないよね」っていう会話を聞きますが、それが利用を広げていくための不安材料であり、まさにそれを見極めるSkillを身に付けることが大切ですね。

人も時には「うそ」をつくことがありますが、見極めたうえで「だまされてあげる」くらいの広い心をもって、それをFeedbackすることで成長させることも長期的には良いことだと思います。子供の育成のように......(あくまでも個人的な意見です)

※ChatGPT4oに確認したのが下記の回答です。

Intrinsic Hallucinations(内因性幻覚)
Intrinsic Hallucinationsとは、AIモデルが自らの内部知識やパターンに基づいて生成する誤った情報や回答を指します。これらの幻覚は、モデルのトレーニングデータセットに含まれる偏りや不完全な情報が原因で発生します。例えば、AIが歴史的な出来事について正しいデータにアクセスできず、間違った情報を生成する場合がこれに当たります。内因性幻覚は、モデルのアルゴリズムやデータセットの質を向上させることで、ある程度防ぐことができます。

Extrinsic Hallucinations(外因性幻覚)
Extrinsic Hallucinationsとは、AIモデルが外部からの入力データや指示に基づいて誤った情報や回答を生成する場合を指します。これらの幻覚は、ユーザーからの誤解を招く入力や曖昧な指示が原因で発生します。例えば、ユーザーが不正確な情報を含む質問をした場合、それに基づいてAIが誤った回答を提供することが挙げられます。外因性幻覚は、ユーザーが提供する情報の質や明確さを向上させることで、ある程度防ぐことができます。

いいなと思ったら応援しよう!