プロンプトの行く末
本noteをお読みくださり, ありがとうございます!
9月のChatGPTアップデートで”o1-preview"が出たことで衝撃が走りました.
しかし, なぜか教育界はこの件についてあまりHotな感じになっていないのが私としては不思議に感じております.
本noteでは, これまで当マガジンで考えてきたプロンプトエンジニアリングの知見から, 今回のo1モデルの進化を捉えたいと思います.
高度な推論モデルo1に一橋大学の数学の問題を解かせた.
以下のような問題をo1-previewに解かせてみた.
すると次の画像のように, いきなり記述を始める今までの4oとは違う挙動が見える.
"思考時間: 52 秒"と出てその後正解を出してくれた.
まず, 数学の教員経験のある私がやっても, この時間で解き終えることは当然ないので, この結果に驚愕するのは言うまでもないわけだが, この思考時間の記述の横に, 思考プロセスを開示するボタンがついてみたので押してみた.
少し長いので, どのようなプロセスでこの問題が解かれたのかを要約する.
以上のような流れで問題を解いた.
これを見るだけでも驚愕した.
これまでのChatGPTは過去に学習した言葉の並びや組み合わせのうち, 最も確率が高いものをすぐに返そうとするだけで, 見た目上はこのような思考プロセスを1撃でやってくれなかった.
ところが今回はいきなり回答を返さず, 条件と照らし合わせたり, 別の角度からこれを考察したりするようになっていることがわかる.
まさに, 生徒に数学の先生がよく言う, 「条件の整理」「解き直し」「見直し」を自分ですでにやっている.
推論モデルo1を日常的に利用する人間に起きること
MENSAのIQ TESTを生成AIの各種モデルに解かせてみたその結果という考察がある.
GPT4の登場からわずか1年と半年でo1はこのようなクオリティを出すまでに至った.
単純にこのペースでいけば, 2025年や2026年にはIQ200に到達する計算だ.
ちなみにMENSAのIQ TESTで問われる力というのはこのようなものであるという.
このような問題を仮にo1が本当に解けていると仮定した場合, 人間がo1を多用することで, 明らかにこの辺りの経験において楽をしてタスクをこなすことになるだろう.
ChatGPTの利用をする上で, 過去に学習した情報を効率よく引き出す"プロンプト"を工夫することで, その経験自体が知識を構造化したり, メタ認知したりする効果につながっていたが, 今回のようにo1に「問題解いて〜」とプロンプトするだけでこのように成果物が得られてしまうと, 検索的に問題解決案を得られてしまう.
では, 私たち教育者がとるべきアプローチは何か?
Chain of Thought(思考の連鎖)の保存
MENSA IQ TESTの部分で述べたような推論モデルがまるまる担うような思考のプロセスを, 私たちはあえて学習者に経験させる必要があるように見える.
世の中でさまざまな暴論が飛び交うが, すでに思考力がある一定水準まで高まっている大人は, これらの推論モデルを手足のように使いこなせるだろう.
しかし, 現代の学習者はそういった思考力が身につく以前にこれらのモデルにリーチする状態だ状態だ.
AIネイティブは, 私たちが当たり前だと思っている経験を経ないで成長するとしたら, きっとできること, できなくなってしまうことに偏りが出るだろう.
生成AIのモデルがどれだけ進化しても, 私たちの意思決定をサポートする立場は変わらないはずだ.
しっかりと考察できるだけの思考胆力を子どもたちがつけるためには, 生成AIを使い倒す経験と合わせて, 教育活動の中に"どの部分を生成AIを使わずに行うか" は同じくらい重要になってくると考える.
皆様はどうお考えになるだろうか.
このあたりの知見を導入校の皆様と考察していきたい.
田中善将への仕事依頼やSNSフォローはこちら
講演・執筆・コンサルティングのお仕事依頼はこちらまで.
Xはこちら.
教育関係者の皆様は, Facebookでも繋がってください.
ここから先は
教育向けLLM プロンプトエンジニアリング
教職員の皆様が健やかに働けるようなプロンプトを投稿します。 授業・学校業務で使えるプロンプトをジャンル別に投稿していきます。 GPTsが流…
いつも応援してくださる皆様に田中GT善将は支えられ、幸せ者です。ありがとうございます!