chatGPTに思うこと2(非言語に思う)
久しぶりにchatGPT(3.5)を使いました。そしたらずいぶん進化していてびっくりしました。こちらの質問の仕方も上達していると思うので、そのせいもあるでしょうが、ずいぶんと人が書く文章に近くなったなと思いました。
今年の4月に書いた記事「chatGPTに思うこと」では、chatGPTの返してくる文章があまりにも教科書ちっくで使えないと書きました。そして、いかに人が非言語情報を使っているかを改めて知ったのでした。
行間から読み取れる非言語情報があるかないかの違いですが、あまりにも違い過ぎました。
たとえば、facebookで全く知らない人から友達申請があり、その人のページに行っても写真ばかり。偽アカかと疑いながらも友達承認してみると「承認ありがとう」のメールが来る。挨拶文や会話しようと文章が送られてくるけど、なんかヘンだ…と感じたことはないですか?
あの妙な感覚。この人は実在しないのではないか?自動で返信していそうだ..と感じる時、私たちは何を基準に判断しているんだろう?と思います。
けど、その違和感は感じるんですね。どうも会話の仕方が変だ、と。文字情報だけ見ると普通な文章のようだけど、その向こうに生きた人間がいる感じがしません。
春頃にchatGPTをしていた時は、まだそういう違和感がありました。行間情報、非言語情報がない文章。それに違和感を感じるのだから、普段、人が書く文章は相当非言語情報が入ってるんだなと思ったのでした。
今回、久しぶりにChatGPTを使ってみたら…かなり使える!と感じました。もうほとんど人が書いた文章と区別がつかないぐらいになっていると感じました。2ヶ月ぐらい前に一度使ってますが、その時はそこまで感じませんでした。
この違いはなんなんだろう?と思いました。chatGPTはどんどんと人とのやり取りの中で学んでいるわけですが、この数ヶ月間で相当進化したなと思います。
人と全く変わらない非言語情報を含んだような文章を書く日はそう遠くないように思います。
人が言葉を発する時、文章を書く時、なにかしらの思いや感情が乗っかります。のっからない時は、教科書のように文字情報だけがあることになります。
私は普段テレビを見ないのですが、久しぶりにニュースを見たら、コメンテーターの方がその時の話題についてコメントされていました。その内容がまるで以前のchatGPTのような文章で気持ち悪かったです。批判のしようがないぐらいまっとうで正しいことを言っているのですが、絵に描いた餅のような言葉の羅列。実際、chatGPTに文章を書いてもらったのかもしれません。
AIがだんだんと人間っぽくなり、人間がだんだんと機械っぽくなっていく…。
広告などの顔写真を見ていても、きれいであることが重視され、画像修正されて、生身の人というよりAIっぽくなっていってるものが増えています。生気が感じられない画像処理です。
そういうのをよく目にしていると自然と洗脳されちゃいそうですね。
「何も考えるな。表面的にきれいで心地良ければいい。」
そんなメッセージを刷り込まれそうです。これもまた非言語情報ですが、こちらはより機械に近づくための刷り込みです。
「人である」とはどういうことか?
今一度、考えてみたいです。
これはまた大きく飛躍するチャンスでもあります。
抽象度とゲシュタルト能力がポイントになりそうです。