見出し画像

ChatGPTに迷路をやらせてみる

GPT4と物理空間をつなぐ試みとして、簡単な知覚を与えて迷路にチャレンジしてもらいました。

想定している迷路(緑がスタートで赤がゴール)

1人称視点で迷路をやってもらうために、迷路の全体像は伝えず、自分がいるマスの上下左右の壁の有無のみを伝えます。次のように対話を開始しました。

最初の一本道は即答していましたが、分岐の際にレスポンスが少し遅くなりました。一応迷ってるみたいですね。

ただ、途中で同じ場所を何度も行ったり来たりすることがあり、迷子になってしまいました。結局、最後は壁がある方向へ進む指示が出てしまい、失敗となりました。

探検の様子を見やすくするために、Processingで表示プログラムを作成しました。ちなみに、このProcessingのコードはほとんどGPT-4で生成しています。

原因と対策を自己分析してもらいました。

対策してもう一度トライしてもらいました。

さっきよりは少し先に進めたのですが、やはり途中で道を戻ってしまいました。よく見ると、ログも間違えています。(2,3)が重複しています。

最後は混乱して、ゴールに着いてないのに到着と言い張っていました。

今回は、ChatGPTに知覚を与えて迷路をやらせてみました。今回の場合、知覚とはマスの上下左右に壁があるかどうかを伝えることでした。プロンプトを作り込んだり、もう少し上手にサポートしてあげればゴールに到達できたかもしれませんが、それはあくまで言語的に解いているだけであり、知覚を頼りに進んでいるとは言えないかもしれません。

壁の有無をできるだけ簡素な記号で伝えるようにしましたが、それでも言語化が介在していることには変わりません。そういう意味で、「知覚」とは異なるとも言えます。自然言語のAIであるChatGPTを使う限り、言語を挟まずに実行することは根本的に矛盾しているとも考えられます。

それでも、内部処理で言語化が介在していることを知らなければ、外部からはまるでAIが知覚を頼りに物理空間を操作しているかのように見えます。現段階では、実質的なプロセスにこだわるよりも、どのように見えるかという観点を探るほうが可能性を感じます。この方向で、もう少し探ってみたいと思います。

いいなと思ったら応援しよう!

この記事が参加している募集