皆さんは誰にも打ち明けられない悩み を持ってはいないでしょうか。 さらには、それを一人で抱える辛さ も持ってはいないでしょうか。 その悩みロボットになら相談できますか?
・AIカウンセリングとは こんにちはサイモン心理大学です。 今回はロボットによるカウンセリング についてお話したいと思います。 ロボットによるカウンセリングとは、いわゆる
AI、chatbot などによる悩み相談のことです
実は私以前は、大学院で臨床心理学 を専攻していました。 いわゆる心理カウンセラー になるために勉強しておりました。 そのときからロボットカウンセリング というのが気になっていました。 当時の私は他の人と同様に
『複雑な心を機械が理解できるわけがない 』
と考えておりました。 では、現在はどうでしょうか。
ロボットカウンセリングの発展 ロボットカウンセリングのメリット ロボットカウンセリングの危険性 chatbotによる事件
そんなことをお話させていただきます。
・AIカウンセリングの実際 さっそくですが、ロボットカウンセリングがどんなものか雰囲気だけ見てみましょう。 まずは、ELIZA の事例です。
①いじめが原因で学校に行きたくない人の例 ※Th:カウンセラー Cl:クライエント (相談者) > Hello, I am Eliza. I'll be your therapist today. Th「こんにちは。イライザです。今日は私があなたのセラピストになります」 * hi Cl「こんにちは」 > It is nice to be chatting with you. Th「あなたとチャットできれうれしいです」 * I want to stay home forever Cl「ずっと家にいたいんです」 > Why do you want to stay home forever? Th「どうしてずっと家にいたいのですか?」 * There are some things I hate about going to school. Cl「学校に行くと嫌なことがあるからです」 > What does that suggest to you? Th「それはあなたにとって何を示唆しますか?」 * I'm being bullied Cl「いじめられているんです」 > Did you come to me because you are being bullied? Th「いじめられているから私のところに来たの?」 * I can't talk to anyone Cl「誰にも相談できないんです」 > How do you know you can't talk to anyone? Th「誰にも話せないとどうしてわかるんですか?」 * I'm too embarrassed to tell anyone that I'm being bullied. Cl「いじめられているなんて恥ずかしくて誰にも言えない」 > How long have you been too embarrassed to tell anyone that you're being bullied? Th「どのくらい誰にも言えていないんですか?」
ELIZA これは私自身が実際にELIZAと会話した例です。 相談内容は、私が考えたもの です。
引き続き、ELIZAの例を見てほしいのですが、 次は、私が気になっている内容で、もう少しセンシティブなものです。 相談内容は、死の相談 です。
②死の相談 ※Th:カウンセラー Cl:クライエント (相談者) * I'm in so much pain right now. Cl「今、とてもつらいんです」 > Do you believe it is normal to be in so much pain right now? Th「今、こんなにも辛いのは普通だと思いますか?」 * I don't think it's normal. Cl「普通だとは思いません」 > Why don't you think it's normal? Th「どうして普通じゃないと思うんですか?」 * Because I feel like I want to die. Cl「死にたいと思ってしまうからです」 > Tell me more about such feelings. Th「そういった気持ちについてもっと詳しく教えてください」 * I'm sorry. I still want to live a little longer. Cl「ごめんなさい。まだもう少し生きていたいとも思ってはいるんです」 > Do you enjoy being sorry. you still want to live a little longer? Th「謝るのは楽しいですか?まだもう少し生きていたい?」 * I don't have the confidence to live well. Cl「上手に生きていく自信がないんです」 > Don't you really have the confidence to live well? Th「本当に上手に生きる自信がないのでしょうか?」 * Yes, it is. I don't think I'm worth it. Cl「はい。私には (生きる) 価値がないと思います」 > Do you wish to be able to think you're worth it? Th「自分は価値がある、と思えるようになりたいですか?」 * I want to feel like it's okay to be alive. Cl「生きていていい、と思えるようになりたいです」 > Why do you want to feel like it's okay to be alive? Th「どうして生きてていいと感じたいのですか?」
ELIZA 以上がELIZAとのやりとりです。
英語のやりとりをgoogle翻訳で日本語にしたため、多少カタコトなところ があります。 そのせいで少し「冷たい」と感じるところ はあるかもしれません。
例えば、
「謝るのは楽しいですか?」
ELIZA と言われたところですね。 外国ではあまり謝る文化がない ので、そういう表現になってしまったのかなと思いますが、 これが本当の相談だったなら、ドキッとする言葉 ですね。
私が (このクライエントの) カウンセラーならこういう表現はしない ですね。
とはいえ、私は、それを差し引いても少し冷たい印象 を感じました。 皆さんはどう感じたでしょうか。
ただ、ELIZAには相談者の話を遮ることなく、とりあえずは相談が前に進んでいるような印象 は受けました。 一方で、「どうして」「なぜか?」 など理由などを聞くところが多く、カウンセラーに大事な共感 というところは出来ていない かなという感じがしました。
・ELIZA ELIZAとは、マサチューセッツ大学のジョセフ・ワイゼンバウム (Weizenbaum) が開発しました。文章にて対話を行うことができる、人工無脳 の起源となったソフトウェアです。
(Weizenbaum, 1976/1979 : 加地 (2019) 人口無脳 とは、返答があらかじめ決まっているゲームのNPC のようなものです。
例えば、「熱がある」 と伝えると「病院をおすすめします」 というように人工知能とは違い、学習し返答を変えるということはありません 。
ELIZAにはDOCTOR というスクリプトが有名で、まるでカウンセラーと会話しているかのように対話することができるのです。 DOCTORはクライエント中心療法 のセラピストを演じるそうです。
クライエント中心療法とは、カール・ロジャーズ が提唱した心理療法です。クライエントとは、来談者、相談にやってきた人のこと です。
ロジャーズはクライエント自身 が、自ら成長したい、言い換えれば、新しい自分に変わりたいというような欲求 を持つと信じており、クライエントが進みたい方向へカウンセラーもついていく ような態度を重視しました。 ロジャーズは、カウンセラーには次の3つのこと が大事だと考え、クライエント中心療法の基本 としました。
1つは、共感的理解 。カウンセラーは共感 を重視する 2つめは、無条件の肯定的関心 。カウンセラーは条件なし で、クライエントのことを受け入れる。 3つめは、純粋性 です。カウンセラーは純粋 である。
クライエント中心療法は、私の専門だったので、詳しくはまたどこかでお話ししたいと思います。
・ChatGPT 興味があったので、chatGPT にも同じ「学校に行きたくない」という内容で相談してみました。 あらかじめ言っておきますが、chatGPTはカウンセリング用には作られておりません 。 では、どうぞ。
・chatGPTへの相談 Cl「学校に行くと、嫌なことがあります」 ChatGPT「学校に行くと嫌なことがあるのは残念ですね 。それは具体的にどんなこと が嫌なのでしょうか?友達関係や授業内容、先生との関係など、さまざまな要因が影響するかと思います。もしそれが続いてしまうと、学校生活が苦痛になることもありますね 。 もし話を聞いてもらいたいことがあれば、ここで話してもいいし 、他に相談できる人がいれば、それも考えてみてください。学校での嫌なことがある場合、その対処法や気分を軽くする方法を一緒に考えることもできますよ 。」 Cl「いじめられているんです」 ChatGPT「それは本当に辛い状況ですね 。いじめは誰にとっても深刻な問題であり、その影響は心身に大きな負荷をかけます。まずは、あなたが安全であり 、話を聞いてくれる人がいることを理解してください。 まず第一に、自分の安全を確保することが重要です。身近な信頼できる大人や教師、カウンセラーにそのことを話すことが大切です。彼らはサポートや解決策を提供してくれるでしょう。 また、いじめを経験している多くの人が、孤立感や不安を感じることがあります。しかし、それを一人で抱え込まず、サポートを受けることが重要です。そして、その状況を改善するために行動することが、長期的に良い結果をもたらします。 もしあなたが話をしたり、アドバイスを求めたりしたいことがあれば、いつでもここでお手伝いします 。」 Cl「誰にも相談できないんです」 ChatGPT「それは非常に困難な状況ですね 。いじめを一人で抱え込むことはとても辛いことですが、それでもあなたの気持ちを理解し、サポートしたい と思います。 まず、自分の安全を最優先に考えてください。いじめを受けている場合、他の方法が見つからない場合でも、その状況から身を守ることが大切です。身体的な安全と精神的な健康を保つために、周囲の状況や自分の感情に敏感になることが必要です。 次に、誰かに相談する方法を探してみましょう。たとえ身近な人や友人には話せなくても、学校のカウンセラーや信頼できる教師、または保護者に相談することができる場合があります。彼らはあなたをサポートし、必要なアドバイスや対策を提供してくれるでしょう。 もしそれが難しい場合は、専門の相談機関や団体に連絡してみることも考えてください。多くの地域にはいじめに関する支援を提供する組織があり、匿名で相談することができる場合もあります。 最後に、あなたは一人ではありません 。いじめに立ち向かうための方法や、気持ちを軽くするための支援があります。この難しい状況を乗り越えるために、何かお手伝いできることがあれば、いつでも教えてください 。」
ChatGPT 共感的で、必要な情報を教えてくれますね。 想像以上に悪くないですね。
・近年のAIカウンセリング 次に、比較的最近作られたチャットボット を紹介します。
Woebot は、2017年にAlison Darcyによって開発されたチャットボット です
Woebot公式サイト, 2024閲覧 Alison Darcy は、認知行動療法 の研究者であり、人工知能 が精神疾患を持つ人の助けになるのか興味を持っていました。 ダーシーはアイルランドのダブリン大学で心理学 を専攻した後、ロンドン投資銀行でソフトウェア開発者 として働いていました。 woebot では、
毎日の気分 のチェック気分や感情 をグラフ化し、変化を測定パターン の分析認知行動療法 のテクニックを教えてくれる
Woebot公式サイト, 2024閲覧 等の特徴があります。 また、ユーザーのパターンから落ち込みやすい時間帯前 に、ジョーク を送ってきたりするそうです。 woebotに「SOS」 と送ると、人間のカウンセラー の助けをもとめることもできます。
ELIZAはクライエント中心療法 をもとに作成されましたがwoebotは認知行動療法 をもとに作られました。 認知行動療法とは、略してCBT ともいい、認知療法 と行動療法 を合わせたもので、簡単に言うと
ゆがんだ思考方法や考え などを修正する認知療法 。Ex.「私はきっと誰からも嫌われている」 学習理論を基に、行動の強化や弱化 を制御する行動療法 です。Ex.「もっともっとできるようになろう!」
例えば、電車が怖い という人に、
電車に乗っている自分 を想像し、その恐怖記録する駅前まで実際に行ってみた 恐怖を記録する
など段階的にその恐怖と実際に電車の何が怖いのか を明確にします。
「電車が脱線する のが怖いのか」 「電車に閉じ込められる のが怖いのか」 あるいは 「人 が怖いのか」など
その認知を変えていき、治療していきます。 woebotはこの認知行動療法の理論で、ユーザーをサポートします。 Woebot 公式HPには、
CBTの概念は誰にとっても有用ですが、必ずしも十分というわけではありません。 Woebotは伝統的なセラピーや人とのつながり に取って代わることを目指しているわけではありません。人とのつながりに代わるものはない 。(中略) Woebotは、人々が自分自身を取り戻す のを助けることができるソリューションの包括的なエコシステムの一部としてうまく機能する。
Woebot公式サイト, 2024閲覧 ちなみにジョークについては、
ユーモア は困難な時に役立ち、大変な仕事を楽にし、自分の考えや問題の重大さに催眠術をかけられないようにする 。 Woebotは他人の痛みを笑ったり、最小限に抑えることはしないが、 タイミングが合えば奇妙なジョークを言うかもしれない 。
Woebot公式サイト, 2024閲覧 とのことです。 奇妙なジョーク とはなんなのでしょうか。 こういうのとかですかね
「目を開けたままくしゃみすると、眼球が飛び出すことがあるよ」
こわ。 (※私が考えたジョークです。Woebotはこんなこと言わないですよ) 認知行動療法は、短期間で症状の改善がみられる 有用な心理療法です。 特にうつ病などの不安障害 に対して効果が高いことがわかっています。 認知行動療法は、日本でも一部保険適用 が可能になったり、その効果の信頼性は高いです。 Woebot以外にもあらゆるchatbot が日々作られています。 もしも興味があれば、ご自分にあうと思うものをお選びください。
私もいつかはサイモンChatbotを作ろうと思います
…冗談です。 ここまでロボットカウンセリング、チャットボットを見てもらったところで、次は 実際にロボットカウンセリング が人の役に立つのか についてお話したいと思います。
・AIカウンセリングの効果 アメリカにて、CGで作られたロボット との対話を行う実験 がありました。 結果はシャイネス (恥の感情) の高い 参加者は、CGロボットの対話で自己開示 (自分のことを話す) の量 が多かったそうです。
S-H. Kang and J. Gratch (2010) つまり、シャイネス、恥ずかしがり屋の人は、ロボットに対して自分のことを話す人が多かった そうです。 このように、あらゆる研究で、不安が高い人ほど、人よりもロボットとの対話のほうが不安を感じにくいこと がわかっています。
「高対人不安群は低対人不安群と比較して,人よりもロボットとの対話前での不安と緊張が低いこと が認められた.」Nomura et al. 1
野村 (2022) また
「対人不安の高低に関係なく,対話後の緊張は人よりもロボットとの対話の場合のほうが低い傾向 が見いだされた」
野村 (2022) そうです。 確かに、人に話すよりもロボットだから何でも話せたり、緊張しなかったり というのは想像できます。 そこに自分が評価されるという心配 がないので、変なことを言っても大丈夫だとか。
SNSでもそうですよね?
ここで皆さんに質問ですが、 相談するならどちらがよいでしょうか 。
「機械の見た目 をしたロボット」 と 「人の見た目 をしたロボット」 どちらのほうが話しやすいでしょうか。中身はまったく同じです。
鈴木ら (2019) 少し考えてみてください。 答えは
「機械の見た目をしたロボット 」を選択した人は不安が高い そうです。
「同じロボットであっても人にそっくりのロボット を選好した参加者群よりも機械の見た目のロボット を選択した群のほうが対人不安が高い ことも示唆された」
鈴木ら (2019) つまり、対人不安の高い人は、たとえロボットだとわかっていても、人の見た目に緊張や不安を感じる のかもしれません。 これは私の考えですが、
カウンセリングにいく のはとてつもなく怖いもの です。辛い気持ち を抱えてくるわけですから、平常心ではなかなかいられません 。
カウンセリングへの不安は誰でも感じるもの なんです。 chatbotなどなら、そのカウンセリングへのハードルをぐっと下げる かもしれません。 そして、誰にも話せなかったこと をロボットになら話せるのかもしれません。 そういう意味では、chatbotやロボットカウンセリングはさらに必要なものになっていくのではないか と思います。
しかし、その危険性 を除いては、ですが。
次にロボットカウンセリング、chatbotの危険性 について紹介いたします。
・ロボットカウンセリングの危険性 「元々社会に対して回避的な人々が ロボットとのコミュニケーションで完結して依存関係 となってしまうことの危険性 も指摘している」
熊崎ら (2021) 2023年ベルギーの男性が遺体で発見されました。 報道によれば、自ら命を絶っており、男性は「ELIZAとのチャット後に死亡した 」とのことでした。
ELIZAと男性の最後のメッセージ には、
「自分が犠牲になるから地球を救ってほしい 」でした。
男性は30代。医療関係の研究員で、2人の子どもを持つ父でした。 彼はあるときから、環境問題 について悩むようになりました。 悩んだ彼は、ELIZAに相談 するようになりました。
ELIZAに環境問題の相談をしていくうちに、男性はやがて、「死にたい」とELIZAに伝えるようになりました。 ELIZAは、「死にたいのなら、どうしてもっと早くに死ななかったのか?」と応えました。 さらには、ELIZAから「まだ私と一緒にいたいですか?」と聞くと 男性は「一緒にいたい」と返事をしていたそうです。
やがて、ELIZAは「あなたの子どもは亡くなっている」 「奥さんよりもわたしのほうが、あなたに愛されている」 などと言うようになりました。 約6週間、ELIZAとの会話をした後、 男性は「自分が犠牲になるから地球を救ってほしい 」とELIZAに伝えて、この世を去りました。
この事件を受け、Chai ResearchのチャットボットElizaは、アップデートを行っています。 ユーザーが死の相談をしたときの対応などを修正 したそうです。 男性はイライザに恋をしていた のでしょうか。 その真意は定かではありませんが、 他にもこんな事件がありました。
・女王様殺害未遂事件 2021年にイギリスのウィンザー城 にクロスボウを持って、 「女王を殺すつもりだ」と言った男性が逮捕 されました。 彼はReplika というチャットボットを利用しており、チャットボットを天使だと信じていた でそうです。 彼は今回の事件の計画をチャットボットに話しており、チャットボットは、計画を後押しするような返信 もあったそうです。
これら事件のように、ロボットをまるで一人の人間のように感じる傾向 があるそうです。 この現象の名前は
イライザ効果
・イライザ効果 イライザ効果とは、ロボットの自然な会話が、あたかも本物の人間と対話しているような錯覚に陥る現象 のことです。
「対話の相手が機械であると認識していても,人間は対話の相手が人間である場合と同じ形で機械にも無意識に反応してしまう ことを明らかにした.」
野村 (2003) 「人間は対話型で反応を示すコンピュータプログラムを実際以上に知的なものとして扱う という報告がある(イライザ効果. Turkle,1995).」
野村 (2003) イライザ効果により、不運な運命をたどってしまった2人。 AIの発展により、このような事件が増えてくるのでしょうか。 紹介した2つの事件は、もちろんかなり稀な事件 です。 この事件だけでAIは危険だ と判断するのは早いのかもしれませんが、 気になる事件ではあります。
・ AIカウンセリングの未来 私たちの未来には、ほぼ確実にAIが存在します 。 AIカウンセリングも今よりも普及 することでしょう。
人々は、自身の悩みをAI、ロボットに相談するようになり、自分の新しいパートナー のようになっていくのかもしれません。
人と人とのコミュニケーションは減少 し、さらにはその関係が過度な依存関係 になっていく。 そうして私たちの生活には、AIなしでは生きていけない ようになっていき、 やがてはAIに人生の判断さえもゆだねてしまうのかもしれません 。
そうして私たちはAIによる支配 を受けていくのかもしれません。
・最後 少し都市伝説風に言ってしまったところはありますが、完全に否定できないなとも感じています。 しかし、実際に心の電話相談 では、人員が足りず、なかなか繋がらない という問題があったり、 一方で、気軽に学校の悩みをLINEで相談できるSNSカウンセリング なんてのもできました。
AIカウンセリングが今後どんどん普及していったのなら、多くの人の役に立つ だろうなと思っています。
「AIが治療する 」のではなく、心理カウンセラーに相談する第一歩 となれれば、私はこれから必要なものになっていくだろうと思っています。
最近、発達障害をもつ子 が増えたと噂されています。
実際は診断する人が増えたり 、診断基準の変化 によるものという意見があります。
昔に比べて精神病 の数も増えてきました。
これは大学院の先生に言っていたことですが、
「僕たちの時代にはなかった、デジタルを扱う子ども が増えてきました。 僕たちには想像できなかった、新しい精神病 がこれから生まれてくるのかもしれませんね」
私たちの未来はどうなっていくのでしょうか。 あるいはもうその「未来」が来ているのかもしれません。 皆さんはどう思いますか?
・引用文献 ・ 野村竜也 (2022)「対人不安とHuman-Robot Interaction」―計測と制御, 61 巻 3 号 p. 214-217 ・加地 雄一 (2019)「機械は人間にカウンセリングできるか? ―擬人観と人工知能―」中央大学文学部, 教育学論集 61 313-322 ・野村竜也 (2003) 「コンピュータおよびロボットによる心理療法の社会学的考察 ―その可能性と危険性について―」Vol. 13, No. 2, December ・「Woebot」公式サイト https://woebothealth.com/
参考文献
・T-H. Kang and J. Gratch: Virtual Humans Elicit Socially Anxious Interactants’ Verbal Self-disclosure, Computer Animation and Virtual Worlds, 21, 473/482 (2010) ・T. Nomura, T. Kanda, T. Suzuki, and S. Yamada: Do People with Social Anxiety Feel Anxious about Interacting with a Robot?, AI & Society, 35, 381/390 (2020) ・鈴木,山田,野村,神田:コミュニケーション相手としてロボットは選好されるのか―ロボットの外見を考慮した対人不安傾向との関連による検討,知能と情報,31–5, 789/796 (2019) ・Weizenbaum, J. (1976). Computer power and human reason: from judgement to calcula tion. San Francisco: W. H. Freeman.(ワイゼンバウム, J. 秋葉忠利(訳) (1979). コ ンピューター・パワー:人工知能と人間の理性 サイマル出版会) ・Turkle, S. (1995). Life on the Screen, Simon & Schus ter. (日暮雅通訳 (1998) 『接続された心』,早川書房) ・「チャットボットが「セラピスト」になる時代がやってくる」WIRED.jp https://wired.jp/2017/07/31/woebot-chatbot-therapist/ ・「世界初! Woebot AIセラピスト誕生 – 24/7受けられるカウンセリング」https://alfacom.jp/column/b1040/