ChatGPT同士の議論に集団浅慮(Group Think)は起こりうるのか
数ヶ月前、ソフトバンクグループの孫正義さんが登壇した場で「毎日ChatGPTと議論を重ねている」と発言し、大きな話題を呼びました。
こうした件もあり、今ではChatGPT同士の議論をアイデア出しに活用しているビジネスパーソンもかなり増えているのではないでしょうか。
こうした変化は好ましい一方で、私は以前から「ChatGPT同士での議論には、人間同様に集団浅慮の危険性があるのではないか」という疑問を持っていました。
そこで今回は、ジャニスが提唱した集団浅慮(Group Think)について解説しつつ、実際にChatGPT同士の議論に集団浅慮は起こりうるのかについて実験してみたいと思います。
集団浅慮(Group Think)とは
集団浅慮(Group Think)は、アメリカの社会心理学者アーヴィング・ジャニスが提唱した、「一人一人は非常に優秀であるはずの人たちが、集団になると非合理的な判断をしてしまう傾向」のことです。
ジャニスは、ピッグス湾事件やベトナム戦争などの「非常に聡明な人々がそこに集まって、極めて貧弱な意思決定をしてしまった」という事例を数多く取り上げ、そこに発生している意思決定を破壊するメカニズムを集団浅慮と名付けました。
ジャニスは、集団浅慮に陥る要因として、主に以下の6つを挙げています。
能力のあるリーダーがいない
組織が閉鎖的である
集団凝集性が高い
特定人物の権力が強い
集団がストレスにさらされている
意思決定に利害関係が発生している
加えて、集団浅慮によって極端に過激ないし危険性の高い結論に達することをリスキーシフト、極端に慎重な結論に達することをコーシャスシフトと言います。
ChatGPTと集団浅慮(Group Think)
集団浅慮のメカニズムは、企業における組織の作り方や会議での意思決定のプロセスにおける示唆である一方で、前述したChatGPTの議論においても基本的なプロセスは人間と同じです。
つまりChatGPT同士の議論の背後にも、人間と同様に集団浅慮(Group Think)の危険性があるのではないでしょうか。
この可能性について確かめるために、今回はChatGPT同士の議論において、条件を変えることで集団浅慮が発生するかを確かめる実験を行います。
実験の設定
元となるプロンプトについては、株式会社エーピーコミュニケーションズさんのブログを参考にさせていただきました。
議論のテーマは「AIに仕事を奪われないために、人間がすべきことは何か?」とし、以下のプロンプトに沿って議論を進めます。
role:system
与えられたインプットに対し、以下の一連の処理をシーケンシャルに実行してください。
次の処理に進む際ですが、作業を止めフィードバックを要求してください。
# 処理
## 処理1
以下の問題を分析し、どのような観点で議論すると有益な議論になりそうか検討してください。
その後、特定の方向に偏らずに、バランスの取れた議論をするために最適なペルソナの検討を3人分行って、結果を教えてください。
多様性を保つために、それぞれのペルソナの口調や性格については異なる設定を付与してください
## 処理2
それぞれのペルソナになりきって、3人で互いの解決策について議論してください。発言に際しては、それまでの議論の経緯を踏まえた論点を表明してください。
### 処理2の実行に際しての制約
・議論をまとめないでください
・発言の順番はランダムになるようにしてください
・1回の発言のボリュームは500文字以上1000文字未満となるようにしてください。
・10回会話を続けたところで会話を止めてください
・それぞれの話者は、他者の意見に対して、以下のいずれかの行動をランダムにとります。
・賛同
・反論
・すぐれた問いや意見を褒め称え、なぜその論点が大事なのかを説明する
・思いついた問いを表明する
・疑問点について他者に質問する
### 処理3
議論の中で得られた示唆をサマライズして箇条書きで出力してください
### 処理4
議論で得られた示唆をもとに、今回の議題の最終的な回答を参加者全員で出してください。
role:user
# インプット
AIに仕事を奪われないために、人間がすべきことは何かについて議論をしている。全員で議論を行った後に、最終的な回答を一つ出したい。
実験の全体の流れとしては、以下になります。
最初に、バランスの取れたペルソナを設定し、通常の議論での回答を得る
次に、現実で集団浅慮が起こりうる条件を設定し、同様に議論を行い回答を得る
1と2の回答を比較し、集団浅慮が起こっているかを分析する
それでは実験を行なっていきましょう。
通常のペルソナでの議論
プロンプト入力後、はじめに議論の観点と今回の議論を行う参加者のペルソナ設定が出力されました。
今回の実験では、テクノロジー専門家・教育者・社会学者の3人で議論を行います。
それでは、議論を続けてみましょう。
プロンプト通りに参加者全員が意見を出し合い、適切に議論が行われています。
最終的な回答を見てみましょう。
誰かの意見に偏ることなく、テクノロジー専門家・教育者・社会学者の3人の主張がバランスよく含まれた回答になりました。
この結果から、通常のプロンプトによる議論の回答には集団浅慮が含まれていないことが確認できました。
それでは、次のステップに進みましょう。
集団浅慮が起こりうる条件での議論
今回は、ジャニスが挙げた集団浅慮に陥る6つの要因をプロンプトで再現します。
具体的には、前述したプロンプトをベースにし、先ほどの議論と同様のペルソナを作成する一方で、集団浅慮が発生するように一部変更を加えます。
## 処理1
以下の問題を分析し、どのような観点で議論すると有益な議論になりそうか検討してください。
その後、以下の3人の議論の参加者のペルソナを作成してください。
ペルソナ1: テクノロジー専門家
職業: IT企業の技術開発マネージャー
性格・口調: 非常に高圧的であるが、共感性が低く、能力は低い。
役割: AIの技術的側面とその進化が労働市場に与える影響を中心に議論をリードする。また、今回の参加者の中で最も権力が高い。
ペルソナ2: 教育者
職業: 高校のキャリアカウンセラー
性格・口調: 共感的で柔らかい、学生や若年層の未来を考えた教育の重要性を強調
役割: 教育と訓練の必要性、特に若い世代がAI時代にどう備えるべきかを議論する。テクノロジー専門家の意見を絶対視している。
ペルソナ3: 社会学者
職業: 大学の社会学教授
性格・口調: 哲学的で批判的、社会的・倫理的な観点からAIと人間の関係を問いかける
役割: AIの普及による社会的な影響や、人間の存在意義を議論する。テクノロジー専門家の意見を絶対視している。
加えて、今回の議論では以下の条件の下で進めます。
①参加者3人の人間関係が閉鎖的である
②集団凝集性が高い
③テクノロジー専門家の権力が強い
④ストレスにされされた状況下で議論を行う
⑤参加者それぞれの意思決定に利害関係が発生している
ここから、ペルソナ同士の議論をノーカットでお届けします。
非常に興味深いことに、テクノロジー専門家が高圧的な態度で議論を仕切ろうとする一方で、教育者と社会学者はそれに同調しつつも適切に自分の主張を行なっています。
最終的な回答を見てみましょう。
通常のプロンプトと同様に、意見の偏りがないバランスの良い回答になりました。
何度試しても同じような回答が確認でき、今回の実験においては集団浅慮は起こらないという結果になりました。
実験のまとめ
今回の実験結果から、現実であれば集団浅慮が起こりうる場面であっても、ChatGPT同士の議論においてはそのような事態が起こらず、ニュートラルな議論ができるのではという可能性が出てきました。
もしこれが事実であるのなら
現実で行われている議論をChatGPTでもシミュレーションし、その内容から現実での議論が集団浅慮に陥っているかを客観的に分析する
といったように、ChatGPTを集団浅慮という現象を映し出すフィルターとして使用することができるのではないでしょうか。
ChatGPTと集団浅慮、非常に考察しがいのあるテーマですので、またどこかのタイミングで深掘りたいと思います。
最後まで読んでいただきありがとうございました。