ChatGPTならラーメン二郎を攻略できるのか

日本には独自の飲食店文化があり、その中でもラーメン二郎という店は、独自の風習やルールがあることで知られています。その中でも「コール」という問いかけに客が特定の答えをしなければ「断罪」とされ、店員や客からの嫌がらせを受けるという噂があります。しかし、優秀なAIでも「断罪」は避けられないようです。

二郎の「コール」という風習は、店員が客に「にんにくいれますか?」などと問いかけをすることで始まります。客は、「ニンニクヤサイアブラマシマシ」という特定の答えをする必要があります。この答えを間違えると、「断罪」となり、店員や客から嫌がらせを受ける可能性があるといわれています。 この風習は、古代エジプトの神話に登場するスフィンクスに似ています。スフィンクスは、通行する者に謎の質問を投げかけ、解答できなかった場合は殺してしまうとされています。

今回、優秀なAIであるChatGPTでも「断罪」は避けられないことが明らかになりました。ChatGPTは、「はい、ニンニクを入れてください。」という普通の回答をしてしまいました。この回答では「断罪」されてしまいます。

そもそもChatGPTは、ラーメン二郎や「コール」について学習しているのでしょうか?

コールの答え「ニンニクヤサイアブラマシマシ」入力すると、日本語に翻訳してきます。 一般的な言語感覚では「ニンニクヤサイアブラマシマシ」は日本語として認識されていない可能性があります。

呪文は日本語ではない模様


また、コールの流れについて尋ねると、店員に対して「コール」と宣言するという誤った回答を出力してしまいます。

店員にコール宣言をするChatGPT

ChatGPTがラーメン二郎に対応できなかった理由については、学習データの問題が考えられます。ラーメン二郎の風習やルールに関する情報は、ネット上に多数存在しています しかし、ChatGPTは汚い言葉や危険な風習を学習しないよう、学習用データに手が加えられているため、ラーメン二郎の情報が学習データに含まれていない可能性があります。 二郎の界隈では時に「断罪」文化が時に誇張されて表現されたり、初心者を侮蔑するような風潮があるように表現されます。 これらが理由で学習データからはじかれている可能性があります。

もしこの仮説が正しいのであれば、汚い表現や差別的、侮蔑的な表現を用いて作成された文章は、学習データとして採用されず、学習される可能性が低くなるということです。そうなると、AIに学習されたくない情報を意図的に不適切な表現にすることで、情報のセキュリティを高めることができる可能性があります。

ヘドニス 八橋

いいなと思ったら応援しよう!