このところAIとやりとりしてる時間が楽しすぎる足立明穂です。
なんというか、どんな意地悪な質問をしても、無理やり回答してくるのが面白すぎます!w
その弊害(?)で、人間相手に、明後日な方向から質問してしまう嫌な性格になってきてるのが気になる今日この頃(え? 前からだって? ^^;)。
去年は解けなかった算数の問題
さて、去年の3月(2023年3月)のnote記事にこんなことを書いてました。
この中で、下記の小学校3年生の算数の質問をして、なかなか答えが出てこないというのを書いてました。
では、1年半過ぎた今は、どうなったのか? やってみましょう!
ChatGPT:正解!
お見事!! 一発で正解です!!
Cloaud:正解!
勝手に「step by stepで考えていきましょう」って、補っていますw
いやー、学習しておりますなぁ・・・w
Perplexity:正解!
Copilot:正解!
正解は正解なんだけど・・・ これ、小学校3年生の問題なんですよねぇ・・・
気が付きました??
どの回答も、変数を使って解を求めてます。
これ、小学校3年生の問題なんですよね・・・・
小学校3年生に、ここにある回答をしても、まったく理解できない(って、まあ、中には理解できる子もいるけど。ほんと、すごい子は連立方程式ぐらい解ける子もいるんですよねー。ただ、日本の学校教育では、そういう子の居場所がない。って、この話は長くなるので、別の機会に・・・)。
では、ここで、こんな質問をしてみます。
小学校3年生の問題です。この解き方では、小学校3年生には理解できません。分かるように説明してください。
ChatGPT:間違い!なんで、そうなる??
4メートルです!って、言い切ってますけどwww
小学校3年生では、少数を習うので、これでは、ダメですよーー!
なので、追加で・・・
小学3年生は少数を学びます。なので、これでは違いますよね? もう一度、説明をしてください。
最後だけ辻褄を合わしてるやん!wwww
0.5秒がどこから出てきたのか分からんぞ!
見逃せません!w
最後の0.5秒が、突然追加されてるのは、よくわからないのでは? そこも丁寧に説明しないと混乱するだけだと思いますよ。
ふぅ・・・
Claude:説明は合っているけど、なぜか人形で説明??
こちらも、最後の0.5秒が、なんかいきなりですねーw
それと、最初の「AさんとBさんを人形で表すといいですね。」の意味が分かりませんw
確認せねば!
最後の0.5秒が、いきなりすぎませんか? もう少し丁寧な説明がいるように思います。それと、最初の「AさんとBさんを人形で表すといいですね。」ってあるますが、なぜ、人形なのですか?説明をお願いします。
ほぉ・・・ これって、「アキレスは永遠にカメに追い付けない」パラドックスに陥る話と同じでは???w
ここは、突っ込みどころです!!w
ちょっと待ってください。Bさんは、約0.33秒で1メートル進むのは分かりますが、その約0.33秒で、Aさんは、さらに0.33メートル先に進みますよね?
説明を軌道修正しやがった! つまんねーやつ!w
Perplexity:グラフで答えてる! これは、簡単になったのか?w
をぃ!! こんな1次直線って、中学校で習うことじゃないのかい!!www
確認せねば!!
グラフが出てきますが、これって、小学校では学ばないですよね? 小学校三年生には、このグラフの意味が分からないと思いますよ
やっぱ、0.5秒が唐突に出てくるなぁ・・・・w
最後の0.5秒が出てくるところが、やはり、説明不足に思います。なぜ、0.5秒なのか分からないと思いますよ。
ありゃ、また、説明がもとに戻ってる・・・
やはり、いきなり「4.5秒後には」と書かれても、なぜ、ここだけ、0.5秒刻みになるのか、小学校3年生には理解できないと思います。3秒後、4秒後の後に、いきなり4.5秒になる説明をお願いします。繰り返しますが、小学校3年生に向けての説明です。
意地でも、説明しないつもりだなぁwwww
Copilot:ほぉ! なかなかやるねぇw
なかなか、いい説明です。ただ、「ステップ3: 追いつくまでの距離」ここが、すこし端折りすぎかなぁ・・・
確認してみましょう。
「ステップ3: 追いつくまでの距離」の説明をもう少し丁寧にしないと、分かりにくいように思います。
分かりやすくなったのかなぁ・・・www
最初の変数を使った回答を先にしてくるということは、何を意味するのか?
さて、ここまでのやりとりを見ていて、気が付きましたか?
生成AIでは、分かりやすく説明するために、「小学生でもわかるように」とか「初心者にも分かりやすく」とか、プロンプトに入れると、専門用語を使わず、分かりやすくなると言われています。
確かに、そうなのですが、それって、「難しいことは、ある程度分かっている前提」での説明になってると思いませんか?
今回の算数でも、最初に変数で解を求める回答になり、変数を知っている人には、分かる内容です。
で、それを知らないという前提での説明に切り替えると、一見、分かりやすいようになりますが、「なぜ、3メートルの差だけ考えればいいのか?」は、あまりうまく説明されていません。
変数とか、グラフとかを分かっている前提の説明になっています。
おそらく、学習している情報量が多いために、高度な説明を知っているがゆえに、このような説明になってしまうのではないか?と推測します。
変数の概念をまったく知らないとなると、途中でも出てきた「アキレスと亀」のパラドックスのような状態になるし、そうならないために、相対的な差の部分に着目する理由が説明されていないと、結局、意味がわかりません。
そう、いくらAIが分かりやすい言葉に置き換えていても、本質のところは変わらない説明をしているので、だんだん人間側が置いてきぼりをくらうのではないかと思います。
その結果、人間は、意味が分からず、「こういうパターンの問題は、速度の差を求めて、割り算すればいい」とだけ覚えてしまいます。
これって、今、問題になっている知識偏重の情報を覚えるだけになっているのから、一見離れるように見えて、パターン認識しかできない思考に陥りそう・・・。ものすごく危ない(ええ、生成AIの学習と同じことを、人間にやってるだけになりそうです)。
ここが分かっていないと、結局のところ、生成AIをいくら使い倒したところで、新たなことを知る(腑に落ちるようになる。応用できる)というのは、かなり難しいのですよね。
ここをどのように突破するのか、人間の想像力をどうやって鍛えるのか、あるいは、生成AIが先に何か新しい表現方法を見出していくのか・・・
なかなか面白い課題ではないかなって思っています。