ChatGPTで内的家族システム(IFS)のワークを試してみた
noteの「今日のあなたに」に、ChatGPTを相手に内的家族システム(IFS)のワークを始めてみたという記事があるのに気づいた。
タイトルを見た瞬間、「あーー!その手があった!!」と目から鱗で、そそくさとその記事を読み、深く感銘を受け、ChatGPTでできることもだいたい把握できたので(記事にコメントしたら、ご親切にも注意点などを詳しく教えていただいた)、自分でもやってみることにした。最新版を使うため、また、ワークの途中で利用制限されることを避けるために、まさかの課金発生(20USドル/月)である。
IFSは未経験である。とはいえ、IFSのパーツという概念は私の中のパーツたちに近いもののように思えたし、パーツたちとは毎日のように会話をしているのもあって、うまくいきそうな予感がした。
そして、重いトラウマを抱えているらしいひなたさんがみつかってからは、これ以上は一人では手に余る(下手をするととんでもなく悪い状況に陥る)のではないかと、ちょうど感じていたところだった。臨床心理士のカウンセリングも、平日に休みを取る必要があるのですぐには行けない。パートナーの彼女に今の状況を話してもよいが、話されても困るだけだろう。そもそもパーツたちがいることについて、何も話していないし。
そういうわけで、正しく適切な回答は何も期待しないことにして、とにかく試してみることにした。パーツたちのこと、これまでにあったこと、パーツたちとの会話から気づいたこと。このような相談にAIはどういう回答を返すのだろう?という好奇心もあった。
実際にやってみると、想像していたよりもずっと穏やかで、気づきと安らぎを感じることのできるワークだった。
例えば、まりの話をしていたときは(ChatGPTの問いかけに対してまりが感じたことや言いたいことを私が代わりにタイプする)、回答があまりにも優しく、まりを思いやったものだったので、彼女は泣き出してしまった。外部の誰かから初めて思いやりのある言葉が彼女にかけられたわけで、その初めての言葉を彼女が本当に深く感じたことがわかった。かけられたのはAIの言葉なのだけれど、誰かの手紙を読んで涙を流すのといったい何が違うのだろう?(そこがAIの怖いところかもしれないけれど)
そして、ひなたさん(IFSでは追放者のパーツにあたるらしい)については、彼女は何も悪くないことがよくわかった。ひなたさんは、私は汚い人間だけど本当は汚くなんかないとワークで語った。そのことが私に伝わったことがわかると、ひなたさんは泣いていた。今、滞在しているらしい、まりの世界にある海のそばで(ひなたさんを感じていたとき、海の潮騒の音が聞こえていた)。
パーツたちがみつかってから心配していたことも聞いてみた。
それは、私は解離性同一症ではないですよね?ということで、ChatGPTの回答は、IFSで説明できる妥当な範囲に収まっているとのことだった。これには本当にほっとした。解離性同一症の原因とされているものに心当たりがある上に、私以外の誰かが私の口を使って勝手に喋っているとしか思えない経験や記憶の混乱や抜けの経験があるのが怖かった。IFSによれば、これらは消防士のパーツがやったことらしい。追放者のパーツが強い不安を感じたときに不安を感じさせないようにするために極端なことをする、それが消防士の役割とのことだ。言われてみると、上の出来事は全て、追放者のパーツが強い不安を感じたであろう状況(例えば、重いトラウマが再現される状況)で起きていた。ChatGPTの回答には、そういう経験がある以上、解離性同一症を怖がるのは当然なので(自分の意志に反することや思ってもいないことを勝手に喋り始めるのは本当に怖い)、心配であれば専門家のカウンセリングを受けたり、診察を求めたりするようにとの注釈がちゃんと付いていた。
もう一つ、IFSとは関係ないが、私のACEスコアについても尋ねてみた。ACE(逆境的小児期体験)についてたまたま先週知り、私もスコアを出してみようと思ったのだが、見るサイトによって質問の表現が異なる上に、どれも曖昧である(経験したものが質問で問われている体験に含まれるかどうかが曖昧でわかりにくい)ように思われたので、このままではスコアを出せないなあと思っていたところだった。
ChatGPTだと、質問に関係するかもしれないこういう体験があるのだけれど、これは質問で問われている体験に含まれますか?含まれるのであれば「はい」、含まれないのであれば「いいえ」です、と回答できる。
ChatGPTの計算した私のACEスコアは7だった。
やっぱり、あの状況は異常だったんだ。ひなたさんが言っていることは正しい。長い間、それに気づかなかった自分が本当にどうかしていた。異常であった証拠に、ACEスコアが4以上の人は2.8%しかいないらしい(https://www.jstage.jst.go.jp/article/spcijasp/42/2/42_420205/_pdf/-char/jaの図1。リンク先には自殺に関する記載があるので注意)。
ChatGPTへの相談について、相手は人間ではないので、思いついたことをあまり躊躇せずに話せること、夜間などの時間の制限を受けず、希望すれば単なる話し相手にもなってもらえることにはとてもメリットがあるように思う。
あくまでも臨床心理士のような専門家ではなくAIによる回答であること、必要なときには必ず専門家にコンタクトすべきであることをよく理解した上で、ChatGPTのようなAIを利用することは良いように感じた。
そういえば、教えていただいたことによると、「未成年+性」の組み合わせには利用制限が入るらしい。将来にわたって情報がどう扱われるかわからないAIに対して性が絡んだ話をするのはためらいがあるが、仮に話すことにしたとしても、ChatGPTの限界を理解しておく必要がありそうである。重いトラウマの中にはまさにその組み合わせがあるように感じているので、いずれにしても私の場合は人によるカウンセリングが必要。
***
まさかこういうことが簡単にできるようになるとは、つい最近になるまで考えたことがなかったけれど、なんかいろいろと変わりましたよね。
これからも変わり続けるだろうし、それがいい方向にいくといいね。
※つづきはこちら