AIが仲介する民主主義の可能性
いよいよ米国大統領の選挙週間がやってきました。最終コーナーの今、気候変動とは異なる文脈で「ゴミ」問題が話題になっています。(しゃれにもならないですが・・・)
こういった争いを見ていると、なんならAIに政治を任せたいと思ってしまうのは私だけではないかなと感じます。
その極端な例として、AIを神とする宗教を立ち上げた元Google社員の話題を過去取り上げました。(今は閉鎖)
さすがにそこまではやりすぎだと思いますが、ただ民主主義を改善する方法としてAIがうまく使えないか?とは真剣に考えます。
まさにその社会実験をGoogle DeepMindが行ったので紹介します。
元論文はこちらです。
AI can help humans find common ground in democratic deliberation(2024/10/18)
ようは、
AIが理想的な民主主義プロセス審議を助けてくれる、
というはなしです。
民主主義を一言でいえば「多数決」です。ただ、その議論の共通基盤を整えるには、あまりにも社会(メディア含む)が複雑化してしまっています。
特に、SNSの普及がそれに輪をかけているのかなと思います。
今回、Google DeepMindが開発したHabermas Machineと呼ぶLLM(大規模言語モデル)を通じて、社会課題(Brexit、移民、最低賃金、気候変動、チャイルドケア)を議論する際のメディエーター(仲介者)として機能させようとしました。
結果として、この議論の当事者ではない人間の審査員からは人間の仲介よりも、公平性、品質、明確さの観点で好ましく評価されました。
この実験は英国で行われました。総計5千名超が小グループに分かれて社会的・政治的な議論を行いました。
興味深いのが、AI が仲介する審議中、討論者のグループの意見は物議を醸す問題に関して同様の方向に進む傾向があることを発見したことです。
つまり、現代は分断化の時代とよく例えられますが、きちんとした議論プロセスを経れば、難しい社会的または政治的問題に対する共通の視点を持てる可能性を示しました。
結果について、論文内の図を引用します。
紫がAI、それ以外が人間仲介者による結果です。しかるべきステップを踏めば、民主主義をより正しく機能させることが出来ることを示しています。
AIが行っていることをざっくり書くと以下の通りです。
参加者が特定のトピックに関する意見を提出
AIが上記意見から多様な視点を反映した集団としての見解(ステートメント)を生成
参加者がAIが生成した見解を評価して批評
AIがフィードバックを取り入れて洗練された見解を生成
参加者の支持に基づいて最終的な集団の見解が選択される
今回の米国大統領選挙には間に合いませんでしたが、ぜひこの社会実証は、他の国・地域・組織でも進めてみて(企業の意思決定にも使えそう)、もし同じような効果を得るなら実践投入してほしいですね。
ついに自然科学だけでなく社会科学にもAIが貢献できる時代に突入した、ある意味エポックとなりうる実験の紹介でした。