俺は良いけど、AIがなんて言うかな?
AIをパートナーとして抽象的な判断軸を自分の中にインストールしていく、ということができないかと考えを巡らせている。
唐突すぎて何を言っているかわからないと思うので、まずは「道徳感」を例にとった話をしたい。
サイバーカスケードという言葉をご存知だろうか。
SNSのタイムラインアルゴリズムによって同じ性質や思想の人々同士でばかりコミュニケーションが行われる、いわゆるエコーチェンバー現象がさらに進み、集団の意見が特定の方向に先鋭化しすぎてしまうことを、サイバーカスケード(集団極性化)と言うのだそうだ。
例えば、2021年のアメリカ大統領選挙の際に起きた議会乱入事件。
選挙に不正があったと主張するドナルド・トランプ支持者たちによるデモ隊が統制を失い議会に乱入した事件だが、これにはQアノンと呼ばれる主にインターネット上で広まった陰謀論が関係しており、まさにサイバーカスケードによって引き起こされた代表的な事件と言えるだろう。
このように同質の人々ばかりが集まり外部からの意見が入りづらい環境では、その集団独自の偏った道徳感が形成されやすく、またそれが一般的な道徳的規範から徐々に乖離していき、最終的には暴力を伴ったいわゆる魔女狩りのような排外的行動に結びついてしまうことがあるのだ。
では道徳とは一体なんなのか。18世紀に道徳論を展開した哲学者が2人いた。デイヴィッド・ヒュームとアダム・スミスだ。(*1)
ヒュームは道徳を「共感を通じて他者の感情で下す判断」であるとした。
個人的な利害や私欲で判断を下すのではなく、他者の目から見ても妥当であるかという視点を共感を通じて自身の中に宿し、その基準によって判断を下すことこそが道徳的な判断だという主張である。
またヒュームはこの時、「他者」とは「その人物が活動する、狭い範囲の仲間たち」と定義した。
狭い範囲の仲間たちの間で共感を通じて共通の視点で判断が下される、というところがまさに先述のエコーチェンバーやサイバーカスケードに繋がる部分と言えそうだ。
このヒュームの道徳解釈に対して別の見解を示したのがアダム・スミスだ。(*2)
スミスは、道徳的判断は「他者」への「共感」ではなく「公平な観察者」との「立場交換」によってなされると考えた。
「公平な観察者」とは自分と利害関係のない第三者であり、その「公平な観察者」と「立場交換」をすることによって、他人の目線ではその事象がどう映るのかを想像することでその視点を学んでいく。
これを繰り返すことによって「公平な観察者」が自身の胸中に形成され、これにより道徳的な判断を下すことができるのだと説いている。
スミスの主張はヒュームのそれよりもより発展的であると言えそうだ。
「公平な観察者」の視点であれば、特定の思想に偏ることのない判断が下せサイバーカスケードを回避できそうだ。
ただ、この「公平な観察者」というのを胸中に形成するのはなかなか困難であるということも想像に難くない。
そもそも我々は自分が知っている範疇の事柄にしか想像力を働かせることができない。全く立場の異なる人間の思想をエミュレートすることは難しいし、有限な脳のリソースの中でそれぞれ異なる立場と環境すべてに思いを馳せるなど不可能だ。
と、ここまで考えていて、筆者はこの「公平な観察者」をどう形成するかという問題にひとつの現代的な解決方法を思い付いた。その役目をAIに任せるのはどうだろうか、ということだ。
AIは過去の膨大なデータセットを学習し、その全体像から「なんとなく全体の総意としてこういうことが言えそうだ」と回答してくれる存在だ。
ここで重要なのは「AIは決して思考をしていない」という点だ。
あくまでAIは過去の膨大なデータセットから述べることのできる結論を提示しているだけであり、そこに意思や思考は介在しない。
つまり、機械的に人類の総論を吐き出す装置に過ぎないということだ。これが「公平な観察者」として都合が非常に良いのではないだろうか。
さて、ここまでくると「AI裁判官」のような方向に思考が飛躍しそうになるが、そうではない。ここで誤解を生まないようにあえて書くが、この主張はAIが直接的に善悪を判断する、ということではないのだ。
筆者がここで主張したいポイントは、「公平な観察者」をあくまで「自身の心の中」に形成するということであり、AIはあくまでそのためのリファレンスであるということだ。
AIと問答を繰り返し、AIの判断基準を知り、それが自分の思想とどれほど乖離しているのかを考え、自身の価値観を調律していく。自身の価値基準が一般的なそれに比べて乖離していかないようにするための、いわば錨としてAIを活用するということである。
そしてこれは、なにも道徳だけに限った活用法ではないかもしれない。
思考の偏りを取り除いて正常化したり、明確にルールを提示しづらい感覚的な判断軸を習得するような、自身の思考や感覚をアップデートするケースでAIを活用できる可能性がありそうだ。
一例として、AIとの問答は例えばある種のカウンセリングとして機能するかもしれない。 先日、ADHD当事者の方がChatGPTを認知行動療法の代替として活用できる可能性についてツイートしていた。 また、ChatGPTを利用してセルフカウンセリングを行うアプリが既に登場しているが、そのリリース文には 「1人で悩むと陥りがちな認知バイアスに対して、AIがより中立的な考え方を提案します」 とあり、自身の中から偏りを取り除き中立的な基準をインストールする目的でAIとのコミュニケーションを活用している。
他の例も示そう。ChatGPTがリリースされて以降、多く活用されている用途のひとつに「文章校正」がある。自身が書いた文章をAIに添削してもらうわけだが、このAIによる校正も頻繁に利用を繰り返せばフィードバックを受けた自分自身の文章校正能力が徐々に向上していくだろう。
また、イラストレーター界隈ではプロが相談者のイラストを添削する「イラスト添削」の文化があり(*3)、的確にイラストの「良さ」を引き出していくさまを見ることができるのだが、こういった「良さ」のような感覚的な判断を必要とする分野において文章校正のような添削AIが登場すると、人間の感覚を調律する目的として有用な手段となるだろう。
「俺は良いけど、YAZAWAがなんて言うかな?」というのは矢沢永吉の名言だ。
地方公演の際に良い宿泊先を手配できなかったスタッフに対して放った言葉とされているが、「YAZAWA」という実体のない美学的な基準が、彼自身の中だけでなく周囲のスタッフの中にもひとつの判断基準としてインストールされているというのが非常に面白く感じる。
本来難易度の高い、美学や道徳といった抽象的な概念をインストールするためのパートナーとして、AIを活用するのはどうだろうかと夢想しているわけである。
※1:ヒュームとスミスの道徳感情論については、徳倫理学の研究者である林誓雄博士のスライドを参考にさせていただいた。
https://ocw.kyoto-u.ac.jp/wp-content/uploads/2021/04/2010_tetsugakukisobunkaseminar-2_02-2.pdf
※2:「見えざる手」でおなじみのアダム・スミスは「近代経済学の父」とも呼ばれ経済学の人という印象が強いが、実はその思想基盤として倫理学者の一面があり、「国富論」よりも以前に「道徳感情論」という著作をしたためているほどである。
※3:イラスト添削について筆者のおススメは、さいとうなおき先生や吉田誠治先生の添削動画である。そんなところを観てるのか!と目から鱗の連続で非常に面白い。なお、さいとうなおき先生のYoutubeアカウントはつい先日BANされてしまったため現在動画本数が非常に少なくなっている。残念でならない。