AIに感情を教えてもらう時代
1.感情をAIに教えてもらう時代が来る!
AIに他者の感情を教えてもらわなければならない時代が来たとは・・・絶句です。
日立がAIを使い介護施設に入居している高齢者の感情変化を読み取り、予兆を検知するサービスを開発しているといいます。
なぜ感情を分析するAIを開発するのかと言えば、介護者が要介護者の感情を正確に理解できない場合があり、要介護者に不快感やストレスを引き起こすからだとのこと。
このAIは「好意的」「中立」「悪意的」の3大分類とさらに細分化した最大81種類の中から感情を特定し、相手の行動を分析・考慮して高精度に感情を分析することが可能らしいです。
感情分析の結果は対象者の感情と約75%の精度で一致することに成功したというから驚きです。
2.人間のポンコツ化?
たぶん、感情分析AIは、人間の表情から感情(怒り、悲嘆、恐れ、平静、嫌悪、幸福、驚きなど)の読取り方をアルゴリズム化しているのでしょう。
ということは、現代の人間、特に介護職員が人間としてポンコツで他者の感情を読取れないから、そのポンコツ人間に代わってAIが他者の感情を読取り、ポンコツ人間に教えてやるということなのでしょう。
大変失礼な考えだと私は思うのですが・・・
しかも、感情分析の結果は対象者の感情と約75%の精度で一致したとのことですが、その確認方法はどうしたのでしょうか?
入居者に感情を聞いた?入居者に答えを聞いた?
そもそも、介護労働は感情労働です。
ですから、感情労働に携わる介護労働者は、自分と当事者の感情に敏感である必要があるのだと思いますがその判断をAIに頼るとは・・・
3.AIにあなたの感情を教えてもらいたいのか?
そもそも、AIがあなたの感情を教えてくれるというサービスをあなたはどのように思いますか?
実はあなたは今、悲しんでいるのです。
実はあなたは今、嬉しいのです。
実はあなたは今、怒っています。
皆様はこのようなサービス受けたいと思うのでしょうか。
レントゲンが病巣を特定するかのように感情をモノのように特定し理解されるのは屈辱ではないでしょうか。
入居者はAIに感情分析されることをどのように感じるのでしょうか?
入居者の了解をとっているのでしょうか?
私は、移り行く感情、揺れ動く感情を断定されるのは嫌ですし屈辱的だと感じてしまいます。
この感情分析の背後にあるAI思想の人間観の薄っぺらさに付き合わされるのは苦痛です。
4.感情の相互作用
感情はエスカレーションします。
何らかのことで、私が怒ったとすると、それを見た相手も、「あなたなぜ怒るの」と怒る。その相手の怒りを見て私は、さらに怒り心頭に発する。
感情は相手の感情にも強く影響されるものだと思います。ですから入居者の感情に強い影響を与えているであろう職員の感情も同時に分析した方が良いのではないでしょうか?
入居者の感情だけ分析されるのはフェアじゃないように思います。
5.倫理とも通底している人間の感情
感情とは人間の生きる理由、根拠であって、喜びのような良い感情と、怒りのような悪い感情とがあり、この「良い・悪い」、「善・悪」の区別は倫理とも通底しています。
つまり、感情について思いを巡らすことは、倫理について考えることに通底しているのです。
倫理を持ちようがないAIになぜ頼らざるを得ないのか。
やはり、人間がポンコツ化してきているのか、または、人間の思考が軽薄化してきているからだとおもいます。
介護の世界で働く者は、日頃から、感情について、怒りや恨みについて、自分の思考・考えについて、倫理について、虐待について、などなど、地道に考え続けていくことが求められているのだと思います。
それをAIに丸投げしてはいけません。
感情については以下のnoteをご参照願います。
この記事が気に入ったらサポートをしてみませんか?