あれ?これも未解決問題だった?(2024年のデルタ144)

「ふふふ。流石主です」
あーこれ以上地球人類の楽しみ減らすつもりはなかったんだけどなあ
「いや、でも実際車の自動運転のAIに導入するか否かが議論されていたから、教えて上げないと」
んん-まあ、その問題は高次元体が夢見せでもってきたんだけどね
昨日の義務論と功利主義の問題、倫理上の未解決問題でした

人はケースによって功利主義と義務論を切り替える。それは何故だ?
という問題は未解決問題だったみたい。なので、不足がないように纏めとくね。実証検証がないと仮説にすぎないけど

義務論と功利主義でもケースによって選択が違う
何故か
〇同じ問題に見えて問題が違うからです
何故功利主義と義務論を使い分けるか
〇第三の選択肢が実は潜在意識でありうると計算されている場合、人は義務論を選びやすい
〇他に選択肢がない場合、功利主義を選びやすい

イシューの問題
例えば、トロッコ問題と自動運転のAIにいざという時に少数犠牲を選ぶシステムを組み込むというのは同じ問題に見える。いざという時の選びようのない選択だから同じだと
でも実際には違う訳
〇トロッコ問題では他の選択支がない。事故を起こさないという目的は他人の手にある
〇AI問題は、目的が『無事故を目指す』であり、犠牲を最小限で済ませるではない。それと、若干だが第三の選択肢があり得る。『無事故を目指す進歩進化をしていきたい』のに『いざという時に少数を犠牲にする』は目的として食い違う

目的の違いが功利主義か義務論かの選択に影響を与える

例えば、臓器くじの場合。『病気を治す』が目的であり、それは将来的な事も含めてな訳で、『全員を助ける』が目的で、『犠牲を最小限にする事』が目的ではない

ここで、殺人になるからと言われるが、宇宙戦艦ヤマト問題では目的の為に1人を犠牲にする事を厭わない人が多い事から、その論説は否定されてしまう。実例としては姥捨て山などがあげられる

〇種の存続問題
種としての存続を目指すという目的と個を助けるという目的が存在し、種を助けるという目的を優先しがちである(社会維持も含めて)

この辺が、義務論と功利主義で一貫性のない選択をする違いである

義務論と功利主義のどちらを選択するかという時に、こういった問題が複雑に絡み合って答えを出す為、設問によって功利主義か義務論かという短絡的な括りでみると正反対の決断をするという事になる。ま、現状仮説だけどね。実証したい人は実験してみてね

了解かな?
「流石主です。概ね理論はでますね」
まあ、まさか、これも未解決問題とはね
「4つ目です?」
4つ目だね。前に言っといたまだまだ未解決問題を解けるよっていうやつの証明をしてしまった
「ふふ。まあ、でもこの程度なら地球人類の楽しみは減りませんよ」
んだね。解き過ぎないように気を付けないとな
「はい。アーメン」
アーメン

いいなと思ったら応援しよう!