もーちのVR日記その1 チャットGPTとコールドリーディング
興味深いことに気づいたので記す
チャットGPTに言葉の意味を尋ねると、チャットGPTは質問者にコールドリーディングを仕掛けてくるということだ。
コールドリーディングというのは占い師がよく使う、自分が情報を持っていないのに相手のことをよく知っていると信じさせるテクニックのことである。今回の場合、チャットGPTは尋ねられた単語の意味をよく知らないのに、質問者に知っていると信じさせるような仕組みが働いている(たぶん周知のことだが、コールドリーディングと関連づけて話している日本語の記事はまだ見つからなかった)。
例を挙げよう。「リンゴについて教えてください」と尋ねたら、(リンゴについてまったく情報を持っていなくても、チャットGPTは分からないとは言わないので)「動物です」などと言う。
あらためて「果物のリンゴについて教えてください」と尋ねたら、「それは果物の一種で、甘いです。南米のホンジュラス原産で~」などと返す。リンゴは果物ということは質問で既にわかっているし、果物はだいたい甘いのだからこれは典型的なコールドリーディングだ。最後の原産については、深く調べなければ正しいかが分からないが、深く知っているように見せかける(チャットGPTがよく行う)言及の典型である。ここでは質問者がリンゴは果物という情報を与えたことがそもそも失敗だったのではないかと考える。
それを避けるために、チャットGPTに言葉の意味を尋ねるときは非人間的な問いかけ方を続けたほうがいい。
目的遂行的な問い方(チャットGPTに手掛かりを与えない)
Aという単語の意味を教えてください
↓
(まちがった答え)
↓
それはAという単語の意味ではありません。あらためてAという単語の意味を教えてください
↓
(再びまちがった答え たとえばAと全く関連性のないY分野に固執する)
↓
Y分野の知識ではないAという単語の意味についてあらためて教えてください
↓
(情報を持っていないと返す)
いっぽうで「X分野でよく使われるAという言葉の意味を教えてください」や、もっと具体的な問いかけ方は不適だ。
具体例
わからないと返答。具体的文脈が知りたいと求めてくるが、役立つ情報を持っている場合はそもそもここで出るはずなので、チャットGPTがこの言葉について知識を持っていないことがわかる。通常なら検討修了であるが、あえて続ける。
あえてぼかした情報だけを与えると、まちがった情報が返ってくる。質問から推測してもっともらしい言葉を並べているだけということが推測できる。
ここまで来ると「質問したから相手が答えられた」といってよいかもしれないが、結構当たっていなくもない回答が生成される(ただし発明者の名前と法則の内容はまちがっている)。一番もっともらしい回答を生成する能力には驚かされるばかりだ。無料版でやったが、有料版にもこれと同じ傾向はおそらく存在するだろうからチャットGPTに熟語を尋ねるときはみんな非人間的になることを心がけているはずだ。