【生成AI】 特にChatGPTは嘘つきます
ChatGPTはハルシネーションを起こす。
という言葉、聞いたことないですか?
私はあります。(どやっ)
最初聞いたときは、バイリンガルの私も意味が理解できませんでした。
「AIがハルシネーション?ん、どゆこと?」という状態。
最近、やっとハルション(略w)の意味がわかったので、
わたしより初心者ピクミンたちに教えて差し上げよう
「ハルシネーション」は、
AIが間違った情報を作り出してしまうことを指します。
たとえば、AIに質問するとき、AIが答えを知らない場合でも、何かを答えようとして誤った情報を提供してしまうことがあるそうで。
(高校生の時こういう子いたわ)
これが「ハルシネーション」(ハルション)です。
だから、
AIの答えが本当に正しいかどうか、自分で確認することが大事なんです。
たとえば、
AIに「日本の一番高い山はどこ?」と聞くと「富士山」と正しい答えを教えてくれます。
でも、もしAIがデータを間違えて覚えていると、「北海道にある山です」と間違った答えを言ってしまうかもしれません。
これがハルシネーションの例。
だから、
AIを使うときには、答えが正しいかどうか、いつも自分でしっかり確認することが超大切なので、ハルション対策を4つだけ教えとく!
ハルシネーション対策4選!
「わからん!」と言える環境を整えてね
AIが自信のない場合に、「わからん!」と正直に答えられるようにしてあげよう。
例: 「この質問がわからないなら、答えを出す代わりに『分からない』『不明確です」と伝えてください。」引用を使って回答を検証する
出力された回答が正しいかを確認するために、文書の引用を求めて検証する。
例: 「いま出してくれた回答を裏付ける引用を、文書から教えて」推論過程を段階的に検証する
AIの考え方や推論を段階的に説明させて、各ステップを検証して誤りを確認してもらう(言ってることむずっw)
例: 「最終的な結論に至るまでの推論をステップごとに説明してください。」繰り返し改善を行う
以前の回答を再確認し、必要に応じて改善を繰り返すことで、より精度の高い回答を得る。
例: 「前回の回答を再確認して、ミスや改善点があれば修正して。」
以上がChatGPTや生成AIを使用する上でとても大事な対策です。
ちなみに、仕事でChatGPTを使っていたり、研究職についてるかたなどは、とくにハルションを起こされると、大きなミスにもつながりますので、気をつけてくださいね!
ではっ🖐️