見出し画像

AIでの代替が効かないと思うシーン

AIを日常的に使うことで、依存度が増してきている人も多くなってきたように思う。私もその1人だ。

しかし、やっぱり、今んとこ、「平均値を要約してサクッと概要を知る利便性」の他に、圧倒的にGoogle検索より優れているところは見出せていない。

現状、自分的に感じている限界には次のような点が挙げられる。

①「矛盾」を抱えている人間に寄り添えない

共感してほしいくせに、自分は唯一の存在でありたい、という、願望を持つのが人間だ。

科学的根拠のない問いについてAIに意見を求めた場合、

Aと言ったらA寄りの意見をくれるし
Bと言ったらB寄りの意見をくれる。

しかし、共感だけではなく、会話の先に、相手と自分の相違もほしいのだ。

私はこう思うけど、あなたは、どう思う?
へえ、そういう考えもあるんだね。という。

人間は、インプット(会話のスタート)の段階ですでに矛盾している。

だから、アイデンティティーもイデオロギーもない、AIからの回答や評価では、どこまでも無機物に話しかける虚しさと寂しさが残り、承認欲求も満たされることはない。

アウトプットにより死人を出したり、精神を病ませたりしてはいけないため、発言は慎重なものにコントロールされている。

会話を重ねることで、よりパーソナライズされ、楽しい会話を弾ませてくれるかもしれないが、優しい嘘をついてくれる配慮や、痛みや喜びを分かち合える心もない。対立を招くかもしれないが、自分の曲げられない心情を熱く語ってくれることもない。

たとえそのアウトプットで相手が傷つこうが喜ぼうが、AI側は当然のことながら、何も「感じる」ことはないのだ。

そのうち痛覚などを持たせることも可能なのかもしれないが、寄り添って共に悲しんでくれたり、楽しんでくれたりということにおいては、人間はもちろん、動物にも到底及んでいない。

②主従関係のバランス

最終的な確認は常にこちら側であるということ。
同じコミュニティに所属し、協力して目標に向かう仲間の場合は、時にはこちらが折れる必要がある場合もあるだろう。

しかし、Google検索で出てきたサイトにこう書いてあったから・・が通用しないのと同様、AIがアウトプットしたものを鵜呑みにしてそのまま採用することがあってはならない。


それは本当に正しいと言えるのか?
誰かを傷つける極端な発想になっていないか?
用法として不自然ではないか?
どこかの意見を丸ごと持ってきてないか?

などを踏まえ、常に、判断はこちら側にないといけない。

意見は参考にしつつも、最終的なジャッジをするのはこちら側で、主従が逆転することはあってはならない。

客観的事実や、科学的に証明されていることなど知識面で、間違っていたことがあれば、もちろんそれは、AIが正しく、考えを改める必要があるが、
情報や条件をすべてテーブルに乗せた上で、では、最終的にどう判断しようか、というところは、必ず、自分で決めないといけない。

なんでも、私の代わりに決めてくれる、魔法の道具ではないのだ。
あたかも最適な解のように提示してくれるため、そのまま自分の意見かのように使いたくなることがあっても、真偽を吟味せずに、使ってはいけない。

自分の意見と、他人の平均値の意見をごちゃ混ぜにして、自分を見失うことがないよう、コントローラーは自分が持っている感覚を忘れないようにして使う必要がある。

つまり、「判断」を要する、用途には向かないということだ。

今んとこ、この2つについては、AIの限界かなーと思う。
というか、ここクリアされちゃったら、AIと人間の区別ってなんだろう・・・

いいなと思ったら応援しよう!