AIに感情を伝えても意味がないよねという話
最近、ChatGPTでプログラミングするのにハマっています。
今回は「Photoshopで任意のレイヤーだけ調色する機能をブラウザで再現したいんだけど、何からすればいい?」みたいな雑な指示から始めましたが、言われたとおりに進めて分からないところはその都度教えてもらい、少しづつそれっぽいものが出来てきました。
本当に凄い時代ですよね。
ただ期待通りのものが最初から出来ることはもちろんないので、意図した結果とズレている点を一つ一つ言語化してプロンプトで指摘していくという地道な作業になります。
例えば画像がブラウザに表示されるステップで、意図せず極端に大きいサイズで表示されてしまうことがあって。
そういうとき、ついプロンプトに「画像が大きすぎる!」と入力したくなるのですが、冷静に考えればこの情報伝達ってAI相手にはまったく無駄なんですよね。
画像が「大きすぎる」ことにまず憤りの感情が沸いて、真っ先にその的外れな状況を指摘をして感情をぶつけようとした。
でもChatGPT的には「それってあなたの感想ですよね」で、「大きすぎるよ!お前は無能か!」という感情はプロンプト的には何の意味も成さないということです。
ChatGPT相手なら「画像をもっと小さくして」が最適です。
考えてみれば、私たちは「まず感情を伝えましょう」という道徳的マナーにとても忠実です。
「昨日スマホを落としてしまった」と落胆している人に対しては「それは残念だったね」と返すのが常識的な回答とされてますよね。
あとは「どこでなくしたの?」のパターンもありますが、これもまたAI的には意味のない返答です。「それが分かれば困っていない」のですから。
一方で「では警察に遺失届を出してください」「買い替えるなら最近発売された〇〇が最適です」みたいな直接的な回答を返してくる人もいますよね。
こういう論理型の人はコミュニケーション的にはあまり好ましくないとされますが、対AIとなるとこっちの方が適しています。
ChatGPTに指示をするときは「相手の気持ちに寄り添いましょう」みたいな一般的に正しいとされる人間的コミュニケーションは封印して、非人間的でストレートな物言いを意図的に心がけないと。
でも相手の感情を一切排除するって意外と難しいよね。
もしかするとこういう伝達方法の切り替えがスムーズにできる能力がこの先価値を持つようになるのかな、なんてことを考えました。