見出し画像

【3500字無料】 人間についての哲学的な本!?——『AI親友論』を読む(1)

*Kindle Unlimitedでもお読みいただけます!

今年(2023年)の夏に刊行された『AI親友論』について、紹介・感想・議論を行ったダイアログ(対談)です。 
全4回の記事に分けて、お届けします。 

第1回 人間についての哲学的な本!?(この記事です)
第2回 WEターン:人間の弱さを考える
第3回 ドラえもんと共冒険者モデル:人間とAIの関係を考える
第4回 カント的人間:道徳と自由を考える

(どの回も一部は無料で読むことができます)

(今回紹介する本の書誌情報)
出口康夫『京大哲学講義 AI親友論』徳間書店、2023年 


話している人

八角
 株式会社「遊学」の代表。
 京都大学大学院 修士課程修了(文学)。
 哲学をやっている。

しぶたにゆうほ 
 株式会社「遊学」の一員。
 京都大学大学院 修士課程修了(文学)。
 専門を尋ねられると、大学では「数学基礎論」、大学院では「宗教言語論」と答えていた。

この本で「書かれない」こと

八角 この本がどういう本かという話をするには、タイトルを見たり最初のほうを読んだりしたときのイメージと、実際の中身とのギャップを説明するのがわかりやすいと思う。

しぶたにゆうほ(以下「しぶ」) この本の「本当のウリ」というか、珍しい部分、特殊性を説明するということね。それでいきましょう。

八角 まず、漠然と「AIやばいなあ」って思っている人がこの本をぱらっと開くとするよね。そうしたら、「人間失業時代は本当にやってくるのか」っていう煽りから話が始まってるわけだよ。少し前に盛り上がってた話だね。

しぶ シンギュラリティに達するとAIが人間を超えて、そのせいで人間が仕事を奪われるみたいな……。

八角 出口先生も、AIによって奪われやすい職業ランキング一覧で「哲学の教師」が上位にあって「苦笑した」と(17頁)。「自分もそれで結構焦ってるんですよ」っていう雰囲気を出していて、先生も自分事というか、ちゃんとその危機意識が共有されているかのように始まる。

しぶ うん。

八角 「皆さんのことよく分かってますよ、僕もそういう同じ意識ですよ」という感じで始まるから、読み手としては、「そうか、AI親友論を読んで、AIを親友として考えるならば、人間は職を奪われないのかな」つまり「AIが人間の代わりに雇用を創出したり、何か新しい発見をして雇用が創出されたりすることで、最初は仕事を奪われるかもしれないけれども、最終的に新しい仕事をめちゃくちゃ創出しますよって話なのかな!」って思って読み始めると思うんだよ。実際、私は、その「仕事奪われる問題」の回答がどこかにあるかなって思って読んでた。だけど、出てこなかった!

しぶ つまりこの本が言おうとしていることは、そういうことではない。

八角 そもそも私たちが今考えてるAIって、ChatGPTみたいな生成AIとかだから、あんまり「人格性」って想定されてないんだよね。人工「知能」って言っても、「人間」みたいなものは別に想定されてない。一方で、「親友」って言うと、AIを「人間」として扱うように聞こえる。だから、親友のような関係で扱うことによって、仕事を譲ってくれたりとか、選んでくれたりとか、新しい雇用を創出してくれたりとか、新しい仕事を見つけてくれたりとか、っていうことかなって思って読むんだよ。それで最後まで読むんだけど、何ら1ミリも触れないで終わる!

しぶ 第1章の話に即していうと、「シンギュラリティが来るのは困りますよね〜」から始まってるわけだよね。人間の仕事を奪われるからシンギュラリティが来ると困る。だから何か人間が負けないようなロジックを考えないといけない。そのときに、〈◯◯できる〉で対決すると負けるので、〈◯◯できない〉を人間のアイデンティティと考えればAIに対抗できますよ! みたいな雰囲気なんだけど、〈◯◯できない〉ことで対抗したからAIに負けないっていうのは、解釈の問題であって、事実としては仕事奪われるわけで。「じゃ、明日からできないことを仕事にします!」ってわけにはいかない。

八角 要するに、『AI親友論』は、人類がAIに仕事を奪われないようにする方法とかを求めて読むものではない。そういうギャップがある。

しぶ この本の書きたいことは別にあると。

「道徳」というジャンプ AI 4.0

八角 いまギャップっていう話をしたわけだけど。つまりそこのジャンプがね、どこにあるかっていうと「道徳」なんですよ。出口先生自身、AIに1.0とか2.0とかって段階設定をしてるんだけど……。

しぶ 42頁からのこれですね。

AI 0.0 自動的AI
AI 1.0 自律的AI
AI 2.0 目的設定AI
AI 3.0 自己目的設定AI
AI 4.0 道徳的なAI
 

(42〜43頁)

八角 そう。この段階でいうところの3.0から4.0に行くときにジャンプが発生してる。

しぶ 順番に見ていきますか。

八角 まず、0.0は「自動的AI」なので、普通に機械みたいな感じで、足し算の計算ができますみたいなやつ。1.0になると、インプット検知と機械学習っていうのがあって、ChatGPTとか、あるいはイーロン・マスクがやっているような、目的地までの安全な自動走行とか。これは分かるよね。その次に、「じゃあ、車でどこまで行くの?」という目的自体をAIが決められるっていうのが2.0。これもわかるんだよ。

しぶ 確かに、ここで言われている「AI 2.0」がいま現実になりつつあることも、なんとなく感覚としては分かるね。議論の方向としてずれてないように思う。

八角 そうそうそう。それで、そのオーダーメイドの目的設定が2.0で、それに対して3.0は自己目的設定。例えばどこかの目的地に行くときに、自分が壊れちゃう可能性がある場合にはそれを止めましょうって判断を行うAI。ここまでは分かるよ。で、そこから4.0に飛ぶのが分かんなくて……。4.0は何かっていうと、自己目的とは全く独立した道徳的目的を持ち出して、それでもって自己目的による行動さえも拒否するようなAI。

しぶ 3.0から4.0で、いきなり「道徳」に舵を切るというルートが、引っかかる部分というか、この本独特の視点ということかな。

八角 最初ChatGPTみたいな話をちゃんとしていたはずなのに、最後のほうでは『2001年 宇宙の旅』の「ハル」という人工知能の話が例に出てきたりしていて、何かすごく乖離があるなって思ったね。

しぶ  SF映画に出てくる、AIを搭載したコンピュータみたいなキャラクターね。

八角 つまり、実際的なAIで私たちが想定しているものが、最終的に「親友」という言い方で話しているものと、離れている。だって、現状、想定している「AIに仕事を奪われる」の状態って、人格がどうとかこうとか以前の問題だよね。

しぶ いま仕事を奪っているAIは、人格ないだろうからね。

八角 私たちが考えるのは「AIが仕事を奪うとかって言われるわけだけど、その仕事を奪うようなAIに、私たちはどう対応していくか?」「AIをどう扱い、どういう関係を築いていったらいいのか?」という問題なのに対して、この本は仕事が奪われるレベルよりも後のAIについて「親友論」みたいなことを言っている。だから間がすっ飛ばされてるんだよね。「この時点で仕事が奪われます」という言及もないし、突然道徳の話が始まって、人格性にシフトしてるんだよね。最初はAIを「車」とか、そういうものとして想定していたわけなんだけど、突然「人間」みたいに想定する。

しぶ ともかく、さらっと書いてあるけれど、3.0から4.0に行くときになぜか「道徳」に行くというジャンプがあって、そのことによって、この本の冒頭から受けるイメージと本来の特徴との間にギャップが生まれている、と。

AIではなく、人間の話!?

八角 私ずっと思ってるんだけどさ、『AI親友論』、別にAIじゃなくていいよね。AIの話、全く関係ない。

しぶ 人間の本なんだよね。AIが人間に完全に限りなく近づいちゃった世界の話しかしていないから、そこではもうAIの特殊性ってほとんどなくなっている。壊れるんだから不死ですらない、みたいな話も出てくるし。「ヒトの形をしていない」程度の差でしかない。逆に言えば、人間に関心がある人が読むと面白いと思うよ。 

八角 だから人間の話をしてるのかAIの話をしてるのか、最初読んだとき、わからなかった。つまり、最後に『2001年宇宙の旅』の「ハル」とか出てくるけど、この本で言われている「AI」が、全てハルのことならわかるんだよ。

しぶ そうだね。ぼくたちがハルとかを見るときに……つまり映画とかアニメとか小説とかに出てくる人格を持った人工知能みたいなものを読むときに、どういう風に見てるかって、単に「人間」として読んでるんだよね。例えばウサギのキャラクターも人間として読むのと同じで。

八角 猫に人格性を認めるみたいな感じでね。

ここから先は

2,463字

¥ 100

この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?