(今のところ)AIには出来なくて、人間なら出来ること。
ここんとこずっと、AIにプログラムを書かせておりますが、意図通りに動かないことがちょくちょくあります。
例えば、とあるデータの整形で、以下の処理をしたいとします。
「すべての書き込みが終わったら、テンプレートとして使っていた1行目を削除する」
人間がやるなら、Excelでデータを開いて、1行目を選択して削除するだけ。
しかしこれが、どういうわけか出来ない。
GPTでもGeminiでも、意図したプログラムが書けない。
なんで?
そうして小一時間くらい格闘していると、だいたいがループしてしまいます。いくつかの修正をぐるぐるやってるだけで解決しません。
と、いふことで。
ここからが、人間様の本領発揮ってわけ!(笑)
そもそも論として、上手くいかないときは前提を疑う必要があります。
そのためには、思考の抽象と具体を行ったり来たりするするわけですが、人間様はそこがお上手。
AIは、頻出単語の確率計算をしているだけなのでそこは出来ていないと思われます。
それで今回の場合はというと──
「一度の処理で出来ないのなら、別々の処理にすればいいじゃん」
──となります。
本当は、こういう提案をAIにして欲しいんですが、今のところ、してくれた試しがありません。「なんでだろう?」と考えてみたら「ああ、前提を変えられないのか」とさっき気づきまして。
前提を変えると言っても目的は変えていないのですから、やれそうなものですけど……しかし確率計算をして、それっぽい受け答えをしているだけでは、今後もしばらく出来ないのかもしれません。あるいはずっと出来ないのかも。
ということは「前提を疑う」的な能力が、ますます重要になるのだろうなと思いました。いったん立ち止まって全体を俯瞰したり、そこから問題を切り分けて具体策を考えたり、という感じの思考ですね。
そんなわけで……今回のケースでいえばこう。
「一連の処理が完了したら、出力データを取り込んで、1行目を削除して」
これで解決でした。
『一連の処理』に『1行削除』を含めなくてもよかったわけです。それが目的ではないわけですし。だから『一連の処理』が終わった後、出力データを取り込みして『改めて整形』すれば事済みました。
でもGPTは『一連の処理』にこだわり続けて、そこをグルグルしているのですね。生成をじっと待ち続けた小一時間はなんだったのか……(ToT)
体感的には、GPTに3回修正させてもエラーを出すなら、人間が介入して前提を変えた方がいいと思いました。
そんなこんなで、何かの参考になれば幸いです。