見出し画像

【一般意思】OpenAIは民主主義の装置となりうるか?

今から約250年前に活躍した哲学者ルソーは、現代の組織における集合的な意思決定の仕組みについて、本格的に論じた初期の思想家と言えるでしょう。

彼の主著『社会契約論』で提唱された「一般意思」という概念は、市民全体の意志を代弁するものであり、代議制や政党制に依存しない「一般意思にもとづいた統治」が理想的な形だとされています。

この「一般意思」という概念は、18世紀において革命的なもので、現代民主主義の基礎を形成する重要な思想の一つとなりました。これはただの個別の意見や利益の集約ではなく、「市民全体の共通善」を追求する意志そのものであり、個人の欲望や党派的な利害を超越した、究極的な公共の意志を意味します。

ルソーは、こうした「一般意思に基づく統治」こそが、真に正当な政治の形であると考えました。

ルソーの「一般意思」の概念は、現代の民主主義や政治思想に大きな影響を与えたものの一つですが、その実現には多くの課題が伴います。近年では、これらの課題に対して情報技術を活用することで、新たな解決策が模索されています。

その一例として、思想家の東浩紀氏の著書『一般意思2.0』の中で、彼は現代の高度に発達したデジタルテクノロジーとネットワークを活用することで、ルソーの一般意思を実現するかもしれないと指摘し、以下のように述べています。

民主主義は熟議を前提とする。しかし日本人は熟議が下手だと言われる。AとBの異なる意見を対立させ、討議の果てに第3のCの立場に集約する、弁証法的な合意形成が苦手だと言われる。だから日本では二大政党制も何もかもが機能しない、民度が低い国だと言われる。けれども代わりに日本人は『空気を読む』ことに長けている。そして情報技術の扱いにも長けている。それならば、私たちは、もはや自分たちに向かない熟議の理想を追い求めるのをやめて、むしろ『空気』を技術的に可視化し、合意形成の基礎に据えるような新しい民主主義を構想した方がいいのではないか。そして、もしその構想への道筋がルソーによって2世紀半前に引かれていたのだとしたら、そのとき日本は、民主主義が定着しない未熟な国どころか、逆に民主主義の理念の起源に戻り、改めてその新しい実装を開発した先駆的な国家として世界から尊敬され注目されることになるのではないか。民主主義後進国から民主主義先進国への一発逆転。

東浩紀『一般意思2.0 ルソー、フロイト、グーグル』


この提言に初めて触れたとき、非常に興奮したことをよく覚えています。(←というお師匠さんの『武器になる哲学』の一文を読んだ時、「この人は信頼に足る」と、強烈に感じたことをよく覚えています)

ヘーゲルの弁証法のように、歴史が螺旋状に発展し、「回帰」と「進化」が同時に起こるのであれば、ICTの力によって古代ギリシアの直接民主制をより洗練された形で復活させることができるかもしれません。

これは確かに熟議の苦手な日本人にとっては明るいビジョンです。

しかし、現実的に考えると、このビジョンには大きなボトルネックがあることに気づかされます。それは、

誰が一般意思を汲み取るシステムを作り、運営するのか

という問題です。

東氏は、集合知を吸い上げる技術の成功例としてGoogleを挙げ、その仕組みを社会運営に活用できると述べています。しかし、Googleはその秘密主義で悪名高く、検索結果を導出するアルゴリズムはブラックボックスになっており、ごく一部の関係者しかアクセスできません。

つまり、Googleが依拠する民主主義と呼ばれるものは、一部の限られた人々にしか関与できないアルゴリズムとシステム、すなわちテクノクラートによって運営されており、本質的なパラドクスを内包しています。

しかし、東氏の書籍が出版されたのは2015年のことであり、それから9年経過した2024年現在、私たちの手元には、Googleに史上初の「コード・レッド」を発動させたChatGPTがあります。そんな強力なChatGPTがあれば「一般意思」の社会実装は可能になるのではないでしょうか?


「一般意志」実現に向けたChatGPTの可能性

さて、東氏が提唱する新しい形の民主主義は、情報技術を活用して「空気」を可視化し、それを基に合意形成を行うという革新的なビジョンです。これが実現すれば、ビジネスにおける意思決定の場面でも大いに活用が期待されるでしょう。

しかし、先述した通りこのビジョンを実現するためには、「誰が一般意志を汲み取るシステムを作り、運営するのか」という問題が避けられません。ここで注目すべきは、ChatGPTのような生成AIがどのようにこの課題に対処できるか、という点です。

生成AIは、技術的な専門知識を持たない人々にもアクセス可能であり、複雑なアルゴリズムがブラックボックス化することなく利用できる点で、より民主的で透明性の高いプラットフォームとなり得る可能性を持っています。

Googleのアルゴリズムは膨大なデータに基づいて意思決定を行いますが、その内部プロセスが「ブラックボックス」として外部からほとんど見えないため、しばしば批判を受けています。

これに対し、ChatGPTはアルゴリズムの透明性を重視して設計されており、ユーザーや研究者が生成プロセスにアクセスしやすい「ホワイトボックス」として機能します。これにより、結果の検証が容易に行える点が大きな特徴です。

これに併せて、東氏のビジョンを実現するためには、集合知を活用する技術が不可欠です。ChatGPTのような生成AIは、多様な意見を吸い上げ、それを基にコンセンサスを形成するプロセスにおいて非常に効果的です。

たとえば、生成AIを活用して特定のテーマに関する意見を広範に収集し、その中から「一般意志」に近い結論を導き出すことが可能です。これが「空気を読む」能力の技術的な代替となり得るのです。

しかし、ここで「おお!ホワイトボックスが空気を読めば、誤りなんて起こらないだろう」と考えるのは早計です。もしそんなに単純な話であれば、とうの昔に「一般意志」の社会実装は完遂されていたことでしょう。というのも、生成AIが「一般意志」を反映するシステムとして機能するためには、依然としていくつかの重要な課題が残っています。特に「バイアスの排除」と「公正性の確保」という難題が立ちはだかるのです。

AIのトレーニングデータが偏っている場合、それに基づいて生成される結果もまた偏ってしまう危険性があります。この問題を解決するためには、以下の2つの対策が重要です。

1.バイアスの排除と公正なデータの選定
まずは、AIが学習するデータからバイアスを取り除き、より公正なデータを選定する作業が不可欠です。

2.意思決定プロセスの監視と修正の枠組みの構築
次に、AIの意思決定プロセス全体を継続的に監視し、必要に応じて修正を加えるためのしっかりとした枠組みを構築することが重要です。

順に見ていきましょう。


バイアスの排除と公正なデータの選定

まず浮かび上がる疑問は、「公正なデータとは何か?」という問いです。まるで古代ギリシャの哲人が問いかけるような抽象的なテーマに見えますが、実際には極めて現実的な問題です。

というのも、データとは単なる数字や文字の集積ではなく、過去の出来事、個人の感情、文化的背景のすべてが詰まった膨大な記録だからです。これらのデータには、意識的か無意識的かを問わず、私たちの思考や行動に影響を与えるバイアスが含まれています。

例えば、もし私たちがAIに「何が最も効果的なリーダーシップスタイルか?」と尋ねたとしましょう。AIはおそらく過去のデータに基づき、カリスマ的リーダーシップやトップダウン型のスタイルを推奨するかもしれません。

しかし、これはデータのバイアスによるものであり、必ずしも「公正な」結果とは言えません。なぜなら、リーダーシップの効果は文化や時代、さらには個々の組織の特性にといった「文脈」によって大きく異なるからです。

このようなバイアスを排除するためには、データ選定の段階で多様な視点を取り入れることが不可欠です。具体的には、異なる文化圏や歴史的背景、さらには少数派の視点も十分に考慮したデータセットを構築することが求められます。つまり、AIを育てるためには、単に過去の「成功例」に基づいたデータを集めるだけではなく、「失敗例」や「異なる選択肢」も含める必要があるのです。

たとえば、国際連合教育科学文化機関(UNESCO)は、AIにおけるバイアスを排除するために、多文化的なデータセットの開発を推進するパートナーシップを構築しています。この取り組みは、AIの決定が不公平な結果をもたらさないよう、データの偏りを是正することを目指しています。具体的には、さまざまな文化圏や社会的背景を反映したデータを収集し、それに基づくAIモデルの開発を推進しています[1]。

また、現在のAIの多くが、特定の文化や視点に偏ったデータで訓練されていることが問題視されています。これに対処するためには、データセットが対象とする集団全体を公正に代表するように設計されているかを厳密に検証することが不可欠です。例えば、ある研究では、少数派や低所得者層に関するデータが不足していることが、AIによる予測の正確性に悪影響を与えることが明らかにされています​[2]。

さらに、AIの開発者たちは、AIモデルをさまざまな環境でテストすることで、特定の文化や時代背景に囚われない広範な適用性を持たせる努力を続けています。しかし、依然としてデータの偏りやバイアスの問題が残っており、その排除にはさらに多くの研究と協力が必要です[3]。

このように、多様な視点を取り入れるための取り組みは進行中ですが、完璧にはほど遠く、さらなる努力が求められています。


意思決定プロセスの監視と修正の枠組みの構築

さて、次に重要な点は、AIが作り出す結論をそのまま鵜呑みにせず、常に監視し、必要に応じて修正を加えるという点です。まるでAIが幼い子供のように、成長過程で間違いを犯すことは避けられません。しかし、ここで「何が間違いであるか」を判断するのは、最終的には人間の役割です。

たとえば、AIが「最も効率的な都市計画」を提案したとしても、それが必ずしも市民全体の幸福を増進するものとは限りません。なぜなら、AIは効率性やコスト削減に特化しているかもしれませんが、それが人々の文化的なアイデンティティや地域の伝統を無視している可能性があるからです。

そこで重要となるのが、AIの意思決定プロセス全体を見守る「監視者」としての役割です。これはまるで、舞台裏で俳優たちがミスなく演じられるように指導する演出家のようなものです。AIの提案が現実世界でどのように機能するか、そしてその結果が公正であり、持続可能なものであるかを常にチェックすることが必要です。

これらの課題を乗り越えるためには、AIと人間の「共演」が不可欠です。AIが作り出す知識と洞察を人間が精査し、必要に応じて方向修正を行うことで、初めて「一般意思」に基づいた公正で持続可能な社会が実現できるのです。

こうして見てみると、「OpenAIは民主主義の装置となりうるか?」という問いは、やはり決して単純ではありませんね。むしろ、それは私たち自身のバイアスと限界を理解し、それを補完するためのAIの役割をどう位置づけるかという、より大きな問いへと進化しているように思えます。


ルソーの真意は重要か否か

ルソーが主著『社会契約論』で主として目指したのは、「個々人が自由を保ちながらも、全体としての共通善を追求できる社会の構築」です。彼は、個々の自由が自然状態で孤立を招くのではなく、社会契約を通じて、自由が全体の利益に貢献するように変換されることを目指しました。これにより、個人の欲望や利己的な行動が社会全体の幸福と調和する形で制御され、より安定した、正義に基づく社会が実現されると考えたのです。

より詳しく知りたいという方は以下をどうぞ。原文の読みにくさを出来るだけ排し、分量も1/5程度にまとめてみました。

ルソーがこの目的を追求した背景には、力や専制政治に基づく社会は不正義と不安定を招く、という認識があります。彼は、力による支配や個別の欲望が優先される社会では、真の自由が失われ、社会全体の幸福が損なわれると考えました。そこで、自由と平等の両立を目指し、それを実現するために社会契約という枠組みが不可欠だと説いたのです。

ルソーが本質的に目指したのは、個々の自由を保ちながらも全体の利益に従うことを可能にする社会構造の確立です。彼の理想は、すべての市民が一般意志に従うことで、個々の自由が公共の利益と調和し、真に正当な政治が実現される社会です。このため、主権の不可侵性や一般意志の絶対性が強調され、これらが個人と社会の調和を保つ鍵とされています。

しかし、ルソーは「一般意思が個人に死を命じれば、個人はそれに従わなければならない」とまで述べています。そして、これに対してバートランド・ラッセルは、「ヒトラーはルソーの帰結である」と名指しで批判しています。

このラッセルの指摘に対し、「ラッセルはルソーの真意を読み誤っている」という批判もありますが、この批判はポイントを外しているように思います。ルソーの真意がどうであれ、問題は独裁者が一般意志という概念を専横の方便として用いた事実です。つまり、「誤解されたくなかったら、誤解されない書き方をしろ」ということです。

よく、「そのような意図で発言したわけではないが、誤解を招きかねない表現だったことについては謝罪したい」という代議士のエクスキューズがありますが、まさにそれと同じことです。

個人の人格や見識が反映されない集合的な意思決定のシステムには、このような危険性が潜むことは確かでしょう。「膨大な量のデータを集めて解析した結果、あなたが社会から抹殺されることで、社会全体が大きな利益を得るという結果が出ました」と、当局から通告されるようなことが起こり得るのであれば、このようなシステムに大きな権限を与えることは倫理的に許されないように思います。

しかし一方で、集合的に情報処理に基づく意思決定が、個人のそれとは比較にならないほど高い品質の意思決定を可能にすることがあるのもまた事実です。ここではそのような事例の一つを紹介しておきます。

第二次世界大戦中、ナチス・ドイツのエニグマ暗号は、連合国にとって解読不可能とされる強力な防壁でした。連合国はこの壁を打ち破るため、ブレッチリー・パークに数学者、言語学者、暗号解読者など、多くの専門家を集め、エニグマ暗号の解読に挑みました。

このプロジェクトの指揮を取ったアラン・チューリングを中心に、集められた専門家たちはそれぞれ異なる仮説や方法論を持ち寄り、エニグマ暗号の解読に挑戦します。注目すべきは、チューリングが開発した暗号解読機「ボンベ」でした。ボンベは、エニグマの複雑な設定を迅速に解析し、膨大な暗号パターンの中から正解を絞り込むことを可能にする画期的な装置でした。チューリングと彼のチームは、暗号機の設定やドイツ軍の通信パターンを推測し、その情報を基に様々なシナリオを構築しました。

しかし、これらの専門家の中で、最終的な段階においてチューリングが選んだボンベのアプローチを支持した者は誰もいませんでした。これはつまり、最終的に導き出された解読方法は、純粋に集合的な知識と経験の融合によって生まれたものであり、誰か一人の予測や意見に固執した結果ではなかったということです。

果たして、この集合的なアプローチは極めて正確でした。エニグマ暗号はついに解読され、その情報は戦局を大きく変える一因となりました。チューリングが指導したボンベによる解読方法は、実際に暗号解読に成功し、連合国がナチス・ドイツに対して優位に立つための決定的な要素となりました。

このエピソードは、集合的な意思決定がうまく機能すると、その集団の中にいる最も賢い人よりもクオリティの高い意思決定が可能になる、ということをよく示しています。

人工知能や通信技術がここまで進んだ状況下において、本質的には古代ギリシアで行われていたものと変わらない民主主義運営の仕組みを、私たちは本当に維持し続けるのか、あるいは進化するテクノロジーを何らかの形で私たちの社会運営に用いるのか。

現在の社会運営のやり方に多くの人が限界を感じていることは事実ですが、だからといって、プロセスのブラックボックス化を招きかねない一般意思による運営には大きなリスクも含まれています。

共通善を追求することは、個人の自由を守りながら、社会全体の幸福を実現するための鍵です。

この間のどこに落とし所を作っていくのかは、21世紀を生きる私たちに向けられた「最も大きな問いの一つ」だと、心底そう思うわけなのです。



[1]
Building Partnerships to Mitigate Bias in AI
https://www.unesco.org/en/articles/building-partnerships-mitigate-bias-ai


[2][3]
Research shows AI is often biased. Here's how to make algorithms work for all of us
Research shows AI is often biased. Here's how to make algorithms work for all of us | World Economic Forum (weforum.org)

Why AI’s diversity crisis matters, and how to tackle it
Why AI’s diversity crisis matters, and how to tackle it (nature.com)




僕の武器になった哲学/コミュリーマン

ステップ2.問題作成:なぜおかしいのか、なにがおかしいのか、この理不尽を「問題化」する。

キーコンセプト33「一般意思」


いいなと思ったら応援しよう!

コミュリーマン
もしよろしければ、サポートをお願いいたします^^いただいたサポートは作家の活動費にさせていただき、よりいっそう皆さんが「なりたい自分を見つける」「なりたい自分になる」お手伝いをさせせていただきます♡