論理学とパラドクス/トロッコ問題と人工知能、そしてその未来はどうなる?
いつもの通り、私のnote記事に高等な内容は期待してはいけない。真面目に知りたいのであれば、Wikipediaか或いはGoogle先生にレッツラゴー。
クレタ人のパラドクス
論理学の初歩的なパラドクスで有名なものに以下のものがある。
「クレタ人は嘘つきだ」とクレタ人が言った。
クレタ人のパラドクス(エピメニデス(古代ギリシャの哲学者)のパラドクス)である。クレタ人は嘘つきなのだから括弧内は嘘になり、真実は「クレタ人は嘘つきではない」になって、今度はそのクレタ人が嘘をついていることになり・・・と文章がどう解釈しても矛盾してしまい解読不能になる。解釈次第で矛盾の解決方法はいくらかある。普通に「クレタ人って割と嘘つき多いよねー」と印象をただ語っただけだ、とか。これなら、その人がクレタ人であることから、事情をよく知っていると思われるので、信憑性は増す。実地調査をすれば正しいこともあり得るだろう。あるいは、ちょっとしたジョークであり、クレタ人の誠実さをニヤニヤしながらそのクレタ人がそう表現した、と読み取ってもいいだろう。或いは、人は真実と嘘の両方を話すのであるから、嘘しか言わないことはあり得ず、この文章自体が誤りである、と言うこともできる。何れにしても、この言葉通りに意味を受け取らないことが矛盾の解消になっている、と言うことを覚えておこう。では以下はどうか。
自己言及パラドクス
この文章は間違いである。
「偽である」なんて表現もある。いわゆる自己言及の極端な例であるが、一般的にはこの文はパラドクス文であり、あってはならない文のはずなのだが――。
しかしここで、虚構新聞(https://kyoko-np.net/)を思い出してみよう。虚構新聞は前提として記事内容は全て虚構であり、嘘である。すると上の文章はなんか成立してくる気はしないであろうか? 多分、こうした考察をした人はいないように思うが、例えば私たちは普通に冗談を言う。或いは空想や、漫画とか他色々創作物など、そんな事実はないのに、それらの作品を読んだり見たりすることが出来る。
論理学は、色々と形式論理的に工夫してこうした矛盾が論理形式上で生じないように公理の立て方などで解決しようとするのだけど、間違った文章を間違った文章として認めれば、何の問題も無い。「あははははー、面白いなー、なわけないけど、もしそうだったら笑えるよねー」と、嘘が存在してもそれははっきり最初から嘘である、間違いであることが分かってさえいたら、誰も文句は言わないはずだろう。結局これも、言葉通りに意味を受け取らないことが矛盾の解消になっている、ということのようである。
ラッセルのパラドクス
これは少しだけ、ほんの少しだけややこしい。述語論理のパラドクスや(素朴)集合論のパラドクスなんて呼ばれたりもする。学術的な説明は苦手なので、簡単に考えてみよう。集合とは何かというと、例えばりんご箱を想像するといいわけである。人の集まりでもいいし、紙が集まって本になっている、でも何でもいい。で、ここでも、誰も説明したことのないような例で説明する。
学校という組織を考える。学校には大勢の生徒がいて、学年やクラスに分けて、クラス毎に先生がいる。その先生たちには教頭は無視するとして、校長がいる。そして、次からは架空の組織とするが、校長先生の何らかの集まりが県単位であるとし、各県の校長先生の集まりには校長会会長がいるとする。そしてその上に、全国校長会本部があり、全国校長会総長がいるとする。
さて、この架空の学校組織図を考え、生徒→先生→校長→……と内部でしか昇進していかないものとし、その教育は常に一つ上位のものがする、と仮定する。先生が生徒を教え、校長が先生を教え、のように。ではここで問題である、総長になるにはどうしたらいいのであろうか? すると、総長には教育者がおらず誰もなれないので、芋づる式に誰も生徒を教えることは出来なくなる。何やらパラドクス的ですが――普通、ピラミッド型組織ってどこにでもあるし、大企業などではサラリーマン社長なんて珍しくないので、教育を指揮命令(系統)と捉えてもいいが、現実にピラミッド組織は成り立っている。
ラッセルのパラドクスは、自分自身を含まない集合の集合(はパラドクスになる)というものである。上の例では、生徒の集合に先生は含めないため、上へ上と順番に追いやったのだだけで、自分自身を含めないという意味で同じものである。では違いは何だろうか?
――簡単である。前総長は県会長の誰かを教育してバトンを渡し引退するのである。このようにして、組織は自分自身を含まない人だけで構成することが出来る。というかそれしか出来ない。社員でありかつ社長はあっても、平社員かつ代表取締役社長はあり得ない。そして、組織には必ず組織外がある。前総長の引退がそうであり、或いは企業なら取引先がそうであり、顧客がそうであろう。現実の集合はそれ自身のみでは存在し得ないのである。
こうした、「集合」という言葉にはその集合自身に含まれないものがあるといことを私たちは当然知っているので、この場合でも言葉通りに意味を受け取らないことが矛盾の解消になっているわけだ。……ちょっとわかりにくいかな。
ともあれ、こうした矛盾、あるいはパラドクスと私たちは日常、実は何気なしに問題なく付き合っているのである。般若心経関連の話でも述べたが、真や偽と言う単純な意味ですらも、実際のところその担い手である私たち自身がそうした意味を与える以外には方法はない。だから、意味は言葉や論理の中には存在しないのである。
ゲーデルの不完全性定理が「理性の限界を示す」とよく言われ、それは誤解であると批判されるのであるけど、その意味で言うならば理性はむしろ我々の側にしかないのである。
トロッコ問題と人工知能
さて今度は、今まで述べたものとは関係ない。同じ本に全くジャンルの異なる話が載っているようなものだ。
トロッコ問題は、例えば以下を参照してほしい。
この仮想問題を例に取り上げて、様々な考察を行うことがこの問題の目的・意図である。だから、正答というものはない。一応言っておくとあの大ベストセラーのサンデル先生の本は一切知らない。
トロッコ問題の要点は、被害に差をつけてあるところである。これが同じであると、どっちでもいいことになってしまうからだけど、どっちでも良くったって、どっちでもいいわけがない(笑)。色々考察してみよう。
小中学性に授業でトロッコ問題をやったら、親からクレームが入って校長が謝罪した、という事例。この記事では著者は「リスク回避を大人は選ぶ」みたいな結論をされているが、クレームが入ることは予測不可能であり、そいつは最初から選択肢になかったろう。うまいこと言ってるようだが、選択肢にないものを選択肢があったかのようにいうのは後出しジャンケンだ。
この場合はそうではなく、謝るか謝らないか、であった。なぜ謝らないという選択をしなかったのかと言えば、問題が大きくなる恐れがあったから、と推定できるだろう。誤れば誤った人の心理的苦痛くらいで済む。結局、人は功利主義的に動いた、それだけのことをだらだらと――って白饅頭氏の記事に文句言っても仕方ないね。
功利主義――功利主義(こうりしゅぎ)またはユーティリタリアニズム(英: utilitarianism)は、行為や制度の社会的な望ましさは、その結果として生じる効用(功利、有用性、英: utility)によって決定されるとする考え方である。帰結主義の1つ。「功利主義」という日本語の語感がもたらす誤解を避けるため、「公益主義」や「大福主義」といった訳語を用いることが提案されている。
もし仮に、それら小中学校で指導要領にトロッコ問題を授業に取り入れることを義務としていたならば、クレームが入っても謝罪はなかったろう。だって指導要領の責任であり、学校には何の責任もないからだ。これを義務論という。Wikipediaのトロッコ問題にもその旨の記述がある。
もし、こうしたことが人の心理の本質であるならば、自身が責任を取らねばならない事態に対しては人は功利主義的に行動し、責任を取る必要はなければ義務に従う、と言えるだろう。概ね、現実にはそうなっている。要するに責任を取りたくないのである。言い方を変えると、心理的負担を最小化しようとする。これを心理負担最小化原則と呼ぶことにする。
おそらく、トロッコ問題のジレンマは、あっさりこれで解けてしまうような気がするのだが……自動運転自動車について考えてみよう。
自律走行車はトロッコ問題ような単純なものではない。走行中に①このまま行けば逆走する対向車に衝突して自車の乗員が死傷する可能性があり、②ハンドルを左に切ると今度は対向車線に出て対向車線の車に衝突、③右に切ると歩道の歩行者を死傷させてしまう、というような極めて複雑な場合、AIをどのように判断させるべきであろうか。自車の乗員の死亡確率を①>②>③とする。また自車は乗員一名、逆走車は無人、対向車線の車は一名、歩行者は3名とする。歩行者は車にぶつかると死ぬものとしよう。
これが人が運転する場合であるならば、自分が助かる可能性にかけるであろう。すると自ずと③になる。自分が助かるためにはそうするのが最も理にかなった手段だったということが出来、心理負担最小化原則に沿っているように思われる。世間だって、運転手が助かるためにはそれが最善だった犠牲はやむを得ないと判断するに違いない。悪いのは逆走車である。
ここで、「歩行者を殺すくらいなら自分が死のう」と③を選ばないという選択もあるが、そうであってもこのドライバーは自身の心理負担最小化原則から逃れていない。あるいは、「もうどうなってもかまわない」も全て心理負担最小化原則から外れることはない。
しかし、AIだと事情が異なる。AIはメーカーの責任で作られるものであり、社会的責任を負う。AIは可能な限りのいかなる場合においても被害を最小限にするように設計される。つまり、自車に乗車するオーナーを殺してでも、人的被害最小になるように設計されるに違いない。人的被害が大きくなるようには決して作られないであろう。つまり、メーカーの心理負担の最小となるように設計されるのである。従って①となる。というか、①しか選ばない。
実際はもっと複雑で、死傷確確率等曖昧な場合が多いだろうし、はっきりと助かる人命があるのであれば、それを最優先にする、というようなプログラムもあり得るだろう。だが何れにせよ、メーカーが社会責任を果たす上で最も責任の小さくなるような、心理負担最小原則は変わらない。これをAIではないが、よく描いた映画がある。
ここでは、トロッコ問題のジレンマをテーマに、自爆テロを実施しようとするテロリストを未然に防ぐか、しかしそのために巻き込まれることになる少女を救うべきか、大勢の関係者が頭を悩ませつつストーリーが展開する。しかし映画は、少女を殺してしまうリスクを選び結局テロリストを殺害するという結末になる。この映画の視聴者は奇跡を願うに違いないが、結果そうはならなかった。これは、この映画ですらも大勢の人間を救うことを優先せざるを得ない結論にしか出来ないという意味で、社会的責任という意味で心理負担最小化原則に従うしか道がないということを示している。見た人は誰でも思うだろう、そうするしかなかったよな、と。
唐突だが、これが人工知能社会の恐ろしさである。人工知能はそれを作る人間が存在する。人間の集まりである企業やあるいは人工知能システムに法的制約を与えようとする政府など、全体としてどうやったって、社会的な責任を果たそうとする。それら大勢の人々が客観的に正しいと判断する基準は、結局社会的に見た場合の心理負担最小化原則に従うしか方法はない。そして、人工知能システムはそのようにしか作ることが出来なくなるのである。
そして、社会責任からは誰も逃れようはないため、人工知能の選択を正しいものとみなし、人工知能に従わざるを得ないという、よくあるSF小説の未来社会そのままになってしまうのだ。どうやっても人工知能は、個人を優先することなく、社会全体の利益に反するように作ることはできない。自由主義社会は完全に否定されるであろうし、人権など全体の利益と比べればとんでもなく小さな価値しかない社会になり得る。人工知能社会は自由主義を否定し、共産主義社会を生み出すのだ。
――とまぁ、少し妄想が幼稚で酷い気もしますが、新型コロナウィルスの騒ぎを見れば、やっぱそんなもんじゃないかなと思います。結局は、個人より社会が優先されてしまうというわけです。そんな社会はまだまだ見えぬ遠い先の話だとは思いますが、中国なんかはそれに近いところもありますし、ネット社会でも様々な規制は増える一方だし、個々人が自由に意見を言えるはずなのに、多数意見に流されていく人が多い。「みんなそう言ってるでしょ!」の破壊力ったら抜群ですしね(笑)
それが良いのか悪いのかはよくわかりませんが、私はそういうところからできる限り離れて、自由でいたいです。以上。
この記事が気に入ったらサポートをしてみませんか?