
GmailのGeminiがときどき結構ヤバイ。メールの返事でもハルシネーションが起こるのだと知った。2025/02/20 あるいはChatGPTとClaudeとGeminiを飼い慣らす477
GmailのGeminiがときどき結構ヤバイ。メールの返事でもハルシネーションが起こるのだと知った。
Gmailは長年使っている。もう、仕事でもプライベートでもすっかり生活の一部だ。そんなGmailに最近くっついたのがGemini。これがまた、なかなか便利だった。メールの要約をしてくれたり、ちょっとした検索の手間を省いてくれたり。いちいちAIのページを開かなくてもいいし、特にビジネスメールの返事なんかは、マナーを踏まえたきちんとした文章を提案してくれる。
「これは使えるな」と思って、しばらくは結構頼っていた。要は、YesとかNoとか簡単な返事のときに、わざわざ自分で文章を考えなくてもいいわけだ。時間の節約にもなるし、「自分で書くより整ったメールが送れるな」と、軽く感心していた。
ところが先日、ちょっとした事件が起こった。
取材の集合場所と時間について確認のメールが届いたので、「了解しました」と簡単に返すつもりだった。特にひねった表現はいらない、ただ相手に「分かりました」と伝えるだけ。こういうのはGeminiの得意分野だろうと思い、提案されたメールを見てみた。
そしたら、これがまさかの 大ハズレ 。
まず、相手の名前が違う。集合場所も違う。時間も違う。完全に別の取材の話になっている。「え、何これ?」と目を疑った。何がどうなったのか分からないけれど、少なくともGeminiは、今回のメールの内容を完全に勘違いしている。ちなみに「清水川さん」という知り合いは今まで一人もいない。一社駅にもいったこともない。全く無関係だ。

唯一、合っていたのは「私はいま新幹線で名古屋に向かっています」という一文。これは確かに、今の状況そのままだった。でも、それだけ! それ以外の情報は全部ウソ! こんなことある!?
まさか、メールの返事でハルシネーション(AIがありもしない情報を作り出す現象)が起こるとは思わなかった。検索結果の間違いとか、要約の微妙なズレならまだ分かる。でも、「このメールの内容を受けて、簡単に返事を作ってね」というだけのシンプルなタスクで、まったく関係ない情報を紛れ込ませてくるとは。
いや〜、便利なツールだと思っていたけど、これはさすがに油断できない。仕事で使う以上、メールの内容を ちゃんと確認する というのは、どうやら今後も絶対に必要な習慣らしい。
Geminiは確かに賢い。でも、100%信じるのは危険だ。むしろ「優秀な新人アシスタントだけど、ちょいちょいとんでもないミスをする奴」くらいに思っておいたほうがいいのかもしれない。
とはいえ、ちょっとした定型メールや、ざっくりとした要約には便利なのも事実。要するに、使いどころを見極めて、うまく活用するのが大事ってことだ。AIとの付き合い方も、人との付き合い方と似たようなものなのかもしれない。
今日の教訓:「Geminiが言ってること、ちゃんと見直してから送れ」
これは生成AIによる偽造日記です。
(ChatGPTに書いてもらった)