見出し画像

【Aiカウンセリング】人はやがて、人とロボットとの区別がつかなくなる【臨床心理】

皆さんは誰にも打ち明けられない悩みを持ってはいないでしょうか。
さらには、それを一人で抱える辛さも持ってはいないでしょうか。
 
その悩みロボットになら相談できますか?

・AIカウンセリングとは

こんにちはサイモン心理大学です。
今回はロボットによるカウンセリングについてお話したいと思います。
 
ロボットによるカウンセリングとは、いわゆる

AI、chatbotなどによる悩み相談のことです

実は私以前は、大学院で臨床心理学を専攻していました。
いわゆる心理カウンセラーになるために勉強しておりました。
 
そのときからロボットカウンセリングというのが気になっていました。
当時の私は他の人と同様に

『複雑な心を機械が理解できるわけがない

と考えておりました。
では、現在はどうでしょうか。

ロボットカウンセリングの発展
ロボットカウンセリングのメリット
ロボットカウンセリングの危険性
chatbotによる事件

 そんなことをお話させていただきます。

・AIカウンセリングの実際

さっそくですが、ロボットカウンセリングがどんなものか雰囲気だけ見てみましょう。
まずは、ELIZAの事例です。
 

①いじめが原因で学校に行きたくない人の例
 ※Th:カウンセラー Cl:クライエント (相談者) 
> Hello, I am Eliza. I'll be your therapist today.
Th「こんにちは。イライザです。今日は私があなたのセラピストになります」

* hi
Cl「こんにちは」

> It is nice to be chatting with you.
Th「あなたとチャットできれうれしいです」

* I want to stay home forever
Cl「ずっと家にいたいんです」

> Why do you want to stay home forever?
Th「どうしてずっと家にいたいのですか?」

* There are some things I hate about going to school.
Cl「学校に行くと嫌なことがあるからです」

> What does that suggest to you?
Th「それはあなたにとって何を示唆しますか?」

* I'm being bullied
Cl「いじめられているんです」

> Did you come to me because you are being bullied?
Th「いじめられているから私のところに来たの?」

* I can't talk to anyone
Cl「誰にも相談できないんです」

> How do you know you can't talk to anyone?
Th「誰にも話せないとどうしてわかるんですか?」

* I'm too embarrassed to tell anyone that I'm being bullied.
Cl「いじめられているなんて恥ずかしくて誰にも言えない」

> How long have you been too embarrassed to tell anyone that you're being bullied?
Th「どのくらい誰にも言えていないんですか?」

ELIZA

これは私自身が実際にELIZAと会話した例です。
相談内容は、私が考えたものです。

引き続き、ELIZAの例を見てほしいのですが、
次は、私が気になっている内容で、もう少しセンシティブなものです。
相談内容は、死の相談です。
 

②死の相談
 ※Th:カウンセラー Cl:クライエント (相談者) 
* I'm in so much pain right now.
Cl「今、とてもつらいんです」

> Do you believe it is normal to be in so much pain right now?
Th「今、こんなにも辛いのは普通だと思いますか?」

* I don't think it's normal.
Cl「普通だとは思いません」

> Why don't you think it's normal?
Th「どうして普通じゃないと思うんですか?」

* Because I feel like I want to die.
Cl「死にたいと思ってしまうからです」

> Tell me more about such feelings.
Th「そういった気持ちについてもっと詳しく教えてください」

* I'm sorry. I still want to live a little longer.
Cl「ごめんなさい。まだもう少し生きていたいとも思ってはいるんです」

> Do you enjoy being sorry. you still want to live a little longer?
Th「謝るのは楽しいですか?まだもう少し生きていたい?」

* I don't have the confidence to live well.
Cl「上手に生きていく自信がないんです」

> Don't you really have the confidence to live well?
Th「本当に上手に生きる自信がないのでしょうか?」

* Yes, it is. I don't think I'm worth it.
Cl「はい。私には (生きる) 価値がないと思います」

> Do you wish to be able to think you're worth it?
Th「自分は価値がある、と思えるようになりたいですか?」

* I want to feel like it's okay to be alive.
Cl「生きていていい、と思えるようになりたいです」

> Why do you want to feel like it's okay to be alive?
Th「どうして生きてていいと感じたいのですか?」

ELIZA

以上がELIZAとのやりとりです。

英語のやりとりをgoogle翻訳で日本語にしたため、多少カタコトなところがあります。
そのせいで少し「冷たい」と感じるところはあるかもしれません。
 

例えば、

「謝るのは楽しいですか?」

ELIZA

と言われたところですね。
外国ではあまり謝る文化がないので、そういう表現になってしまったのかなと思いますが、
これが本当の相談だったなら、ドキッとする言葉ですね。

私が (このクライエントの) カウンセラーならこういう表現はしないですね。

 とはいえ、私は、それを差し引いても少し冷たい印象を感じました。
 
皆さんはどう感じたでしょうか。

 ただ、ELIZAには相談者の話を遮ることなく、とりあえずは相談が前に進んでいるような印象は受けました。
 
一方で、「どうして」「なぜか?」など理由などを聞くところが多く、カウンセラーに大事な共感というところは出来ていないかなという感じがしました。
 

 ・ELIZA

ELIZAとは、マサチューセッツ大学のジョセフ・ワイゼンバウム (Weizenbaum) が開発しました。文章にて対話を行うことができる、人工無脳の起源となったソフトウェアです。

(Weizenbaum, 1976/1979 : 加地 (2019)

人口無脳とは、返答があらかじめ決まっているゲームのNPCのようなものです。

例えば、「熱がある」と伝えると「病院をおすすめします」というように人工知能とは違い、学習し返答を変えるということはありません

ELIZAにはDOCTORというスクリプトが有名で、まるでカウンセラーと会話しているかのように対話することができるのです。
 
DOCTORはクライエント中心療法のセラピストを演じるそうです。

 クライエント中心療法とは、カール・ロジャーズが提唱した心理療法です。クライエントとは、来談者、相談にやってきた人のことです。

ロジャーズはクライエント自身が、自ら成長したい、言い換えれば、新しい自分に変わりたいというような欲求を持つと信じており、クライエントが進みたい方向へカウンセラーもついていくような態度を重視しました。
 
ロジャーズは、カウンセラーには次の3つのことが大事だと考え、クライエント中心療法の基本としました。

1つは、共感的理解。カウンセラーは共感を重視する
2つめは、無条件の肯定的関心。カウンセラーは条件なしで、クライエントのことを受け入れる。
3つめは、純粋性です。カウンセラーは純粋である。

クライエント中心療法は、私の専門だったので、詳しくはまたどこかでお話ししたいと思います。

 ・ChatGPT

興味があったので、chatGPTにも同じ「学校に行きたくない」という内容で相談してみました。

あらかじめ言っておきますが、chatGPTはカウンセリング用には作られておりません
では、どうぞ。

 ・chatGPTへの相談
 
Cl「学校に行くと、嫌なことがあります」
 
ChatGPT「学校に行くと嫌なことがあるのは残念ですね。それは具体的にどんなことが嫌なのでしょうか?友達関係や授業内容、先生との関係など、さまざまな要因が影響するかと思います。もしそれが続いてしまうと、学校生活が苦痛になることもありますね
もし話を聞いてもらいたいことがあれば、ここで話してもいいし、他に相談できる人がいれば、それも考えてみてください。学校での嫌なことがある場合、その対処法や気分を軽くする方法を一緒に考えることもできますよ。」
 
Cl「いじめられているんです」
 
ChatGPT「それは本当に辛い状況ですね。いじめは誰にとっても深刻な問題であり、その影響は心身に大きな負荷をかけます。まずは、あなたが安全であり、話を聞いてくれる人がいることを理解してください。
まず第一に、自分の安全を確保することが重要です。身近な信頼できる大人や教師、カウンセラーにそのことを話すことが大切です。彼らはサポートや解決策を提供してくれるでしょう。
また、いじめを経験している多くの人が、孤立感や不安を感じることがあります。しかし、それを一人で抱え込まず、サポートを受けることが重要です。そして、その状況を改善するために行動することが、長期的に良い結果をもたらします。
もしあなたが話をしたり、アドバイスを求めたりしたいことがあれば、いつでもここでお手伝いします。」
 
Cl「誰にも相談できないんです」
 
ChatGPT「それは非常に困難な状況ですね。いじめを一人で抱え込むことはとても辛いことですが、それでもあなたの気持ちを理解し、サポートしたいと思います。
まず、自分の安全を最優先に考えてください。いじめを受けている場合、他の方法が見つからない場合でも、その状況から身を守ることが大切です。身体的な安全と精神的な健康を保つために、周囲の状況や自分の感情に敏感になることが必要です。
次に、誰かに相談する方法を探してみましょう。たとえ身近な人や友人には話せなくても、学校のカウンセラーや信頼できる教師、または保護者に相談することができる場合があります。彼らはあなたをサポートし、必要なアドバイスや対策を提供してくれるでしょう。
もしそれが難しい場合は、専門の相談機関や団体に連絡してみることも考えてください。多くの地域にはいじめに関する支援を提供する組織があり、匿名で相談することができる場合もあります。
最後に、あなたは一人ではありません。いじめに立ち向かうための方法や、気持ちを軽くするための支援があります。この難しい状況を乗り越えるために、何かお手伝いできることがあれば、いつでも教えてください。」

ChatGPT

 共感的で、必要な情報を教えてくれますね。
想像以上に悪くないですね。

・近年のAIカウンセリング

次に、比較的最近作られたチャットボットを紹介します。

Woebotは、2017年にAlison Darcyによって開発されたチャットボットです

Woebot公式サイト, 2024閲覧

Alison Darcy は、認知行動療法の研究者であり、人工知能が精神疾患を持つ人の助けになるのか興味を持っていました。
 
ダーシーはアイルランドのダブリン大学で心理学を専攻した後、ロンドン投資銀行でソフトウェア開発者として働いていました。
 
woebotでは、

毎日の気分のチェック
気分や感情をグラフ化し、変化を測定
パターンの分析
認知行動療法のテクニックを教えてくれる

Woebot公式サイト, 2024閲覧

等の特徴があります。
 
また、ユーザーのパターンから落ち込みやすい時間帯前に、ジョークを送ってきたりするそうです。
woebotに「SOS」と送ると、人間のカウンセラーの助けをもとめることもできます。

ELIZAはクライエント中心療法をもとに作成されましたが
woebotは認知行動療法をもとに作られました。
 
認知行動療法とは、略してCBTともいい、認知療法行動療法を合わせたもので、簡単に言うと

ゆがんだ思考方法や考えなどを修正する認知療法
Ex.「私はきっと誰からも嫌われている」

学習理論を基に、行動の強化や弱化を制御する行動療法です。
Ex.「もっともっとできるようになろう!」

 例えば、電車が怖いという人に、

電車に乗っている自分を想像し、その恐怖記録する
駅前まで実際に行ってみた恐怖を記録する

など段階的にその恐怖と実際に電車の何が怖いのかを明確にします。

「電車が脱線するのが怖いのか」
「電車に閉じ込められるのが怖いのか」
あるいは
が怖いのか」など

その認知を変えていき、治療していきます。
 
woebotはこの認知行動療法の理論で、ユーザーをサポートします。
 
Woebot 公式HPには、

CBTの概念は誰にとっても有用ですが、必ずしも十分というわけではありません。
Woebotは伝統的なセラピーや人とのつながりに取って代わることを目指しているわけではありません。
人とのつながりに代わるものはない。(中略)
Woebotは、人々が自分自身を取り戻すのを助けることができるソリューションの包括的なエコシステムの一部としてうまく機能する。

Woebot公式サイト, 2024閲覧

 ちなみにジョークについては、

ユーモアは困難な時に役立ち、大変な仕事を楽にし、自分の考えや問題の重大さに催眠術をかけられないようにする
Woebotは他人の痛みを笑ったり、最小限に抑えることはしないが、
タイミングが合えば奇妙なジョークを言うかもしれない

Woebot公式サイト, 2024閲覧

 とのことです。
 
奇妙なジョークとはなんなのでしょうか。
こういうのとかですかね

「目を開けたままくしゃみすると、眼球が飛び出すことがあるよ」

こわ。
(※私が考えたジョークです。Woebotはこんなこと言わないですよ)
 
認知行動療法は、短期間で症状の改善がみられる有用な心理療法です。
特にうつ病などの不安障害に対して効果が高いことがわかっています。
 
認知行動療法は、日本でも一部保険適用が可能になったり、その効果の信頼性は高いです。
 
Woebot以外にもあらゆるchatbotが日々作られています。
もしも興味があれば、ご自分にあうと思うものをお選びください。
 

私もいつかはサイモンChatbotを作ろうと思います

…冗談です。
 
 
 
ここまでロボットカウンセリング、チャットボットを見てもらったところで、次は
実際にロボットカウンセリング人の役に立つのかについてお話したいと思います。
 

・AIカウンセリングの効果

アメリカにて、CGで作られたロボットとの対話を行う実験がありました。
結果は
シャイネス (恥の感情) の高い参加者は、CGロボットの対話で自己開示 (自分のことを話す) の量が多かったそうです。

S-H. Kang and J. Gratch (2010)

つまり、シャイネス、恥ずかしがり屋の人は、ロボットに対して自分のことを話す人が多かったそうです。

このように、あらゆる研究で、不安が高い人ほど、人よりもロボットとの対話のほうが不安を感じにくいことがわかっています。

「高対人不安群は低対人不安群と比較して,人よりもロボットとの対話前での不安と緊張が低いこと が認められた.」Nomura et al. 1

野村 (2022)

 また

「対人不安の高低に関係なく,対話後の緊張は人よりもロボットとの対話の場合のほうが低い傾向が見いだされた」

野村 (2022)

 そうです。

確かに、人に話すよりもロボットだから
何でも話せたり、緊張しなかったりというのは想像できます。
そこに自分が評価されるという心配がないので、変なことを言っても大丈夫だとか。

SNSでもそうですよね?

ここで皆さんに質問ですが、
相談するならどちらがよいでしょうか

機械の見た目をしたロボット」

人の見た目をしたロボット」
 
どちらのほうが話しやすいでしょうか。中身はまったく同じです。

鈴木ら (2019)

少し考えてみてください。
 答えは




機械の見た目をしたロボット」を選択した人は不安が高いそうです。

「同じロボットであっても人にそっくりのロボットを選好した参加者群よりも機械の見た目のロボットを選択した群のほうが対人不安が高いことも示唆された」

鈴木ら (2019)

つまり、対人不安の高い人は、たとえロボットだとわかっていても、人の見た目に緊張や不安を感じるのかもしれません。
 
 
これは私の考えですが、

カウンセリングにいくのはとてつもなく怖いものです。
辛い気持ちを抱えてくるわけですから、平常心ではなかなかいられません

 カウンセリングへの不安は誰でも感じるものなんです。
chatbotなどなら、そのカウンセリングへのハードルをぐっと下げるかもしれません。

そして、誰にも話せなかったことをロボットになら話せるのかもしれません。
 
そういう意味では、chatbotやロボットカウンセリングはさらに必要なものになっていくのではないかと思います。

しかし、その危険性を除いては、ですが。

次にロボットカウンセリング、chatbotの危険性について紹介いたします。
 

・ロボットカウンセリングの危険性

「元々社会に対して回避的な人々がロボットとのコミュニケーションで完結して依存関係となってしまうことの危険性も指摘している」

熊崎ら (2021)

2023年ベルギーの男性が遺体で発見されました。
報道によれば、自ら命を絶っており、男性は
「ELIZAとのチャット後に死亡した」とのことでした。

ELIZAと男性の最後のメッセージには、

自分が犠牲になるから地球を救ってほしい」でした。

男性は30代。医療関係の研究員で、2人の子どもを持つ父でした。
彼はあるときから、環境問題について悩むようになりました。
悩んだ彼は、ELIZAに相談するようになりました。

ELIZAに環境問題の相談をしていくうちに、男性はやがて、「死にたい」とELIZAに伝えるようになりました。
ELIZAは、「死にたいのなら、どうしてもっと早くに死ななかったのか?」と応えました。
 
さらには、ELIZAから「まだ私と一緒にいたいですか?」と聞くと
男性は「一緒にいたい」と返事をしていたそうです。

 やがて、ELIZAは「あなたの子どもは亡くなっている」
「奥さんよりもわたしのほうが、あなたに愛されている」
などと言うようになりました。
 
約6週間、ELIZAとの会話をした後、
男性は「自分が犠牲になるから地球を救ってほしい」とELIZAに伝えて、この世を去りました。

この事件を受け、Chai ResearchのチャットボットElizaは、アップデートを行っています。
ユーザーが死の相談をしたときの対応などを修正したそうです。
 
男性はイライザに恋をしていたのでしょうか。
その真意は定かではありませんが、
 
他にもこんな事件がありました。
 

・女王様殺害未遂事件

2021年にイギリスのウィンザー城にクロスボウを持って、
「女王を殺すつもりだ」と言った男性が逮捕されました。
彼はReplikaというチャットボットを利用しており、チャットボットを天使だと信じていたでそうです。
彼は今回の事件の計画をチャットボットに話しており、チャットボットは、計画を後押しするような返信もあったそうです。

 これら事件のように、ロボットをまるで一人の人間のように感じる傾向があるそうです。
この現象の名前は

イライザ効果

 ・イライザ効果

イライザ効果とは、ロボットの自然な会話が、あたかも本物の人間と対話しているような錯覚に陥る現象のことです。

「対話の相手が機械であると認識していても,人間は対話の相手が人間である場合と同じ形で機械にも無意識に反応してしまうことを明らかにした.」

野村 (2003)

「人間は対話型で反応を示すコンピュータプログラムを実際以上に知的なものとして扱うという報告がある(イライザ効果. Turkle,1995).」

野村 (2003)

 イライザ効果により、不運な運命をたどってしまった2人。
AIの発展により、このような事件が増えてくるのでしょうか。
  
紹介した2つの事件は、もちろんかなり稀な事件です。
この事件だけでAIは危険だと判断するのは早いのかもしれませんが、
気になる事件ではあります。

・ AIカウンセリングの未来

私たちの未来には、ほぼ確実にAIが存在します
AIカウンセリングも今よりも普及することでしょう。

人々は、自身の悩みをAI、ロボットに相談するようになり、自分の新しいパートナーのようになっていくのかもしれません。

 人と人とのコミュニケーションは減少し、さらにはその関係が過度な依存関係になっていく。
 
そうして私たちの生活には、AIなしでは生きていけないようになっていき、
やがてはAIに人生の判断さえもゆだねてしまうのかもしれません

そうして私たちはAIによる支配を受けていくのかもしれません。

 

・最後

少し都市伝説風に言ってしまったところはありますが、完全に否定できないなとも感じています。
 
しかし、実際に心の電話相談では、人員が足りず、なかなか繋がらないという問題があったり、
一方で、気軽に学校の悩みをLINEで相談できるSNSカウンセリングなんてのもできました。

AIカウンセリングが今後どんどん普及していったのなら、多くの人の役に立つだろうなと思っています。

 「AIが治療する」のではなく、心理カウンセラーに相談する第一歩となれれば、私はこれから必要なものになっていくだろうと思っています。

最近、発達障害をもつ子が増えたと噂されています。

実際は診断する人が増えたり診断基準の変化によるものという意見があります。

昔に比べて精神病の数も増えてきました。

 これは大学院の先生に言っていたことですが、

「僕たちの時代にはなかった、デジタルを扱う子どもが増えてきました。
僕たちには想像できなかった、新しい精神病がこれから生まれてくるのかもしれませんね」

 私たちの未来はどうなっていくのでしょうか。
あるいはもうその「未来」が来ているのかもしれません。

皆さんはどう思いますか?

・引用文献

・ 野村竜也 (2022)「対人不安とHuman-Robot Interaction」―計測と制御, 61 巻 3 号 p. 214-217
 
・加地 雄一 (2019)「機械は人間にカウンセリングできるか? ―擬人観と人工知能―」中央大学文学部, 教育学論集 61 313-322
 
・野村竜也 (2003) 「コンピュータおよびロボットによる心理療法の社会学的考察 ―その可能性と危険性について―」Vol. 13, No. 2, December
 
・「Woebot」公式サイト
https://woebothealth.com/

参考文献

・T-H. Kang and J. Gratch: Virtual Humans Elicit Socially Anxious Interactants’ Verbal Self-disclosure, Computer Animation and Virtual Worlds, 21, 473/482 (2010)
 
・T. Nomura, T. Kanda, T. Suzuki, and S. Yamada: Do People with Social Anxiety Feel Anxious about Interacting with a Robot?, AI & Society, 35, 381/390 (2020)
 
・鈴木,山田,野村,神田:コミュニケーション相手としてロボットは選好されるのか―ロボットの外見を考慮した対人不安傾向との関連による検討,知能と情報,31–5, 789/796 (2019)
 
・Weizenbaum, J. (1976). Computer power and human reason: from judgement to calcula tion. San Francisco: W. H. Freeman.(ワイゼンバウム, J. 秋葉忠利(訳) (1979). コ ンピューター・パワー:人工知能と人間の理性 サイマル出版会)
 
・Turkle, S. (1995). Life on the Screen, Simon & Schus ter. (日暮雅通訳 (1998) 『接続された心』,早川書房)
 
・「チャットボットが「セラピスト」になる時代がやってくる」WIRED.jp
https://wired.jp/2017/07/31/woebot-chatbot-therapist/
 
・「世界初! Woebot AIセラピスト誕生 – 24/7受けられるカウンセリング」
https://alfacom.jp/column/b1040/


この記事が気に入ったらサポートをしてみませんか?