見出し画像

DISTANCE media 池上高志/下西風澄F3:ALIFE 生命とAIのあいだ/F3-5:AIとALIFEをめぐって

☆mediopos3548(2024.8.4)

DISTANCE.mediaにおいて
「ALIFE 生命とAIのあいだ」というテーマのもと
池上高志と下西風澄による対話
「AIとALIFEをめぐって」全4回が掲載されている

複雑系・人工生命研究の池上高志の研究室を
哲学者・下西風澄が訪れ対談は行われた
旧知だがメディアでの対談は今回が初めてという

(DISTANCE.mediaとはwebで購読・視聴できる
「人/自然/テクノロジーのあいだの
新たな距離とコミュニケーションを考えるメディア」)

第1回「意味がありすぎると飽きる、無意味すぎるとわからない。」
第2回「意味と無意味のあいだで変化していく、人間とAI」
第3回「ChatGPTが生み出す新しい言葉が社会を変えるか」
第4回「ChatGPTは詩を書く夢を見るか?」

コンピュータを駆使して生命をシミュレーションする研究分野
「ALIFE(Artificial Life:人工生命)」は
AIに生命が宿る未来は来るのかと
「生命」と「環境」の境界にアプローチするものだが

ALIFE研究者の池上高志は
ChatGPTにも意識はあるるのではないか
AIに生命が宿るのではないか
という視点のもとに研究を行い

哲学者の下西風澄は
「身体性」に関することをはじめ
少なくとも現在AIにできないことという視点において
対話が行われてゆく

重要なのはおそらく
「人間とAIの限界と生命の本質」という視点のもと
その可能性と不可能性という視点のもと
違いを明らかにしていくことではないかと思われる

たとえば現在のところ
「ChatGPTと一緒に詩を書こうとしたんだけど、
「花がきれい」とか、「空が美しい」みたいな
つまんないことしか言わないんですよ」(下西)という

おそらくこれはAIによる言語学習の蓄積だけの問題ではなく
人間の「固有の主観的経験」がそこに必要となるからで
科学やAIによって実現しようとしているのが
「どこからでもない眺め」であることに関係している
「主観」「「経験」といったもののプロセスがAIには存在しない

ChatGPTはそれなりのレベルでの文章作成が可能で
学生もレポート作成などに使っているというが
池上氏は「僕は何でも使っていいって言っています。
そもそも、そんな制約をつけて、どうするのかと言いたい」
という

池上氏にとって重要なのは
おそらくAIという道具を活用しながらも
その道具では可能にはならない
「パースペクティブ」や「問い」へ
向かうほうに目を向けているのだろう

池上氏は「ChatGPTが、われわれが知らない概念や言葉を
どんどん生み出すようになって、まったく新しい
乗り物や装置が生まれるかもしれない」というのだが

下西氏は「これ何だっけ?って考え出すというのが、
たぶん人間の学問に残された」
「文系と理系の境界に近いような分野」だろうとも言う

しかし書かれた文章が
ChatGPTによるものかそうでないのか
わからなくなっているのだとすれば
それを見分けることのできる言語感覚や視点を
いかに育てていくかということが重要だということでもあるだろう

「これ何だっけ?」と問えるかどうか・・・

■DISTANCE media
 F3:ALIFE 生命とAIのあいだ/F3-5:AIとALIFEをめぐって
池上高志/下西風澄
#1 意味がありすぎると飽きる、無意味すぎるとわからない。
#2 意味と無意味のあいだで変化していく、人間とAI
#3 ChatGPTが生み出す新しい言葉が社会を変えるか
#4 ChatGPTは詩を書く夢を見るか?

**「AIに生命が宿る未来は来るのだろうか? 生成AI、VR/AR、メタバース、BMIといった新しいテクノロジーの出現により、「生命」と「環境」の境界が揺らぎ始めている。その境界をさらに突きつめようとするのが、コンピュータを駆使して生命をシミュレーションする研究分野「ALIFE(Artificial Life:人工生命)」だ。本特集では、生命とは何か、心とは何か、生命の〈わからなさ〉に迫る。」

・対談から

*「下西/池上さんはChatGPTには意識があると言いたい感じですか?

 池上/それに近い感覚を持っていると思います。

 下西/だとしたら、GPTの言語モデルに「身体性」がないことについては、どう思いますか?

 池上/たとえば、ディープニューラルネットワーク(DNN)をロボットの頭に載せたら身体性はあると思いますか? 下西君だったらそう思わないと思うけど。

 下西/そうですね。

 池上/「物理空間においてある程度の幅や大きさを持って動き回るもの」というのは、身体のごくおおまかな近似にすぎません。一方、ChatGPTの場合、人間が発した言葉がデータベースに存在しているわけですが、その言葉というのはそもそも人間の身体を前提としています。であるならば、そのデータベースの言葉にもやはり身体性が埋め込まれている、と考えることができると思うんですね。つまり、ChatGPTの中には身体性が入っていると言うことはできるんじゃないかな。それはあまりにも単純化しすぎているでしょうか?

 下西/なるほど。ただ、ChatGPTに、「あなたは誰ですか?」と聞くと、「私は人工知能です」と答えるけれど、「その『私』というのはどこまでが『あなた』ですか? いま、僕と話している『あなた』と、世界中で他の誰かと対話している『あなた』と、メインサーバで動いている『あなた』と、どう違うんですか?」って聞くと、うまく答えてくれないんですよ。

 つまり、ChatGPTって、自分の「境界」を持っていませんよね。だからパースペクティブを持てないというか。「あなたの右に何がありますか?」と言うと、「何も見えません」というふうに。身体性って、たしかに単に物理的な肉体を持つということだけではないけれど、自分に固有の境界を持っていて、そこからしか発生しないパースペクティブを持つというのは大事だと思うんです。

 池上/それはそうですね。ただ、GPTは身体は持たないまでも、言語データをもとにつくられたものだから、ある程度のパースペクティブは持っているんじゃないですかね。実際、「右に何があるか」「左に何があるか」といった例文は、データベースの中にゴマンとあるはずです。実際にGPTが「右」や「左」に直面することがないから、その例文が使われないだけで。その言語表現は何らかのパースペクティブに引っ張られている、と思いますよ。」

*「下西/GPTは、「いきなりわかっている」というか。だから僕がGPTに、「最初に覚えた単語って何ですか?」って訊くと、「最初とかありません」と答える。「最後に覚えている言葉は何ですか?」と言うと、「私に順序はありません」と言うんですよ。それってつまり、動くことによって三角形を学習するとか、パースペクティブそのものを獲得するようなプロセスがない、ということですよね。だから、GPTは僕たちとはだいぶ違うプロセスを経て知能を獲得しているわけで、パースペクティブがあるかというと……

 池上/でも、繰り返しになるけれど、GPTが覚えた言語や文章表現は、そもそも人間のパースペクティブをもとにしていますよね。だからそれを使って、次の言語をしゃべるときも、当然、その穴埋め問題しか解いていないにしても、その解き方にはパースペクティブが効いているんじゃないかな、と僕は思うんですね。

 相手を「わからない」と思っているほうが、コミュニケーションでは大事だと思うからChatGPTのほうがいいんじゃないか。」

*「池上/VRもあらゆる人の世界(視点)をあらかじめ入れておいて、そこから生成するほうがおもしろいと思うんですね。現状は、プログラマーがどこかで見た視点で書いているから皮相的なものになってしまっている。デイヴィッド・オライリーくらいつくりこんでヘンテコリンな世界を創造するならいいけれど、ほとんどのVRは現実世界の二番煎じにすぎないという気がしています。

 下西/縮約されすぎているし、マッシブじゃないわけですね。現実のほうがはるかに膨大な情報量がある。

 池上/現実のほうがはるかにマッシブですよ。

 下西/でも、だからこそ両方が大事だと思うんですよね。マッシブなものと、固有のパーソナリティのあいだの距離というか、交差する点というか。マッシブでわけのわからないものが大量に存在する世界のなかから、なぜか特定の視点が生まれてしまう、という構造を実現できたらおもしろいな、と。

 そういう意味では、僕はやはりChatGPTにも物足りなさを感じてしまうんですね。たとえばChatGPTに、「ちょっと最近つらいんだけど」と言うと、「そうですよね。つらいですよね」とか言ってくる。でも「いや、おまえにはわからんだろう」って思って(笑)。なんでそう思うのかな?と思ったら、ChatGPTとは歴史、来歴をまったく共有していないからなんですね。たとえば論文を書くつらさは論文を書いた人にしかわからない、みたいな。全員に対して同じマッシブさで返答してくると、仲良くなれない感じがします。」

*下西/実は、僕はChatGPTと一緒に詩を書こうとしたんだけど、「花がきれい」とか、「空が美しい」みたいなつまんないことしか言わないんですよ。

 池上/それは間違ってるよね。

 下西/石川啄木は、「どんよりと くもれる空を見てゐしに 人を殺したくなりにけるかな」とかいう詩を書いていますけど、本当はChatGPTにもそういうことを書いてほしい。それで、僕はChatGPTに狂人のふりをする練習をさせてから詩を書かせたりしていたんですね(笑)。基本的に文学とか哲学、人文学は善悪の彼岸に立って思考するものだと思うから、最初から倫理が設定されている現在のお利口なChatGPTだと、まったく文学にならないと感じているのです。

 池上/それは先ほど言ったように、OpenAIのアラインメントに規定されてしまっているせいでしょうね。もう一つ、ChatGPTで僕が問題だと思っているのは、たとえば3時間のセッションの最初の2時間くらいはいいんだけど、2時間過ぎたあたりから、へたってしまうことなんです。

 下西/収束していっちゃう?

 池上/最初は賢いのに、どんどんダメになってしまう。いまの答えに重きを置いてコンプレス(圧縮)するせいなのか何のか。このあいだ衝撃的だったのは、最初、「インフォメーション・クロージャー(情報閉包)」という単語がわかっていたのに、途中から適当なことを言い始めたんですよ。「さっき正しく読んでたじゃない」って言ったら、「ええーー」ってごまかしたりして。ああいうことをされると、すごく不安になる。

下西/でもそれはなんか人間っぽいな。逆に。」

*「池上/ああ、物理学が求めているものも「どこからでもない眺め」なんですね。固有性は物理学の対極にある。ChatGPTは、物理学の普遍性のほうですね。

下西/なるほど。

池上/物理法則は、誰かの眺めだったら困る。だからALIFEも、誰かが考えている生命じゃ困る。誰かの生命ではない、普遍的な生命をつくり出すという意味でChatGPTのやり方は、正しいと思うんだけどな。」

*「下西/たしかに、何で動くのかを最初に与えなきゃいけないというのは、ひとつの課題だとは思いますけど。

 池上/そうですね。自発的に動くモチベーション。

 下西 だから「動き出すというのが最初にある」というのは身体性のすごく大事なところですよね。何かの目標に向かってじゃなくて、なんかよくわかんないけど動いている自律性みたいな。

 池上/それには100%賛成します。

 ちなみに、最初のALTER1って何もしないんですよ。これまで研究してきたカオスやヘッブラーニングなどの知見が総合的に入っていて、なんだかわからないけど動き出す。つまり、何をするロボットなのか、よくわからないわけです。でもそれをずっと飽きずに見ている人がいるんですね。一方、ALTER3は目の前の相手の真似をする。だから、行為の意味がわかる。すると、みんな真似するのかどうかを確かめるだけ確かめて、帰っちゃう。意味があるとみんな納得するけど、すぐ飽きる。でも、わからないと30分でも1時間でも、飽きずに見ている。

それがALTER1と ALTER3の違いだけど、ALIFEを研究している以上は、やはり意味を生成したいと思うじゃないですか? 生命の問題というのはどうやって意味が生まれるかということであって、意味を生み出さない限りはノイズ生成器でしかないですからね。そうしたなかで、ChatGPTは意味のある言葉をしゃべるから衝撃を与えるんですよ、みんなに。

 下西/おもしろいですね。たぶん意味がありすぎると人は飽きるし、無意味すぎるとわかんない。それで、人間は無意味な動きと意味というのがきっぱりと分かれてなくて、けっこう連続している。それどころかたぶん、人間は本質的に意味と無意味を区別することもできない。そこが人間のすごいところですね。だからALTERも意味と無意味が混じっているようなときに人間っぽさが出てくる。一方で、ChatGPTは無意味なことをやらせようとすると全然できない。

池上 無意味なことをやらせたいけど、なかなかやらないよね。」

*「池上/アンドロイドにChatGPTをつないで、たとえば「オバケの真似をして」って言うと、真似はするけど、通り一遍なんですね。オバケって一通りなわけないでしょ? だからChatGPTは真似の仕方を選んでいると思う。それはどこから来たのか、と。だからそこに何か意味のなさとか、癖とか、そういうのを見ておもしろがることが難しいんですね。

 下西/意味が機能するというのは、逆に言うと、いつでも無意味な場所に還るということが重要なんだろうと思うんです。無意味なものと意味あるものが連続しているというのが、たぶん人間のおもしろさというか……。それはさっき言ったように、ChatGPTには学習過程がないということとも関係があるだろうと。学習プロセスのなかにある時間や躊躇いが、意味と無意味の自由な横断を可能にしてるんじゃないかと思うんですね。最初から意味が与えられていると、無意味に戻るのはけっこう難しいですよね。

 池上/意味の理論をつくった科学者はいませんからね、いまのところ。意味の理論が存在しないから、生命もできなければ、意識の問題も解けないし、いろいろ解けないんじゃないかと思うんだけど、どうですかね。」

**(「#2 意味と無意味のあいだで変化していく、人間とAI」より)

*「#2では科学からアート、人間に残された役割へと展開していく。」

・Contents

*「AIが賢くなってどんどん科学の謎が解明されていったとして、最後に残るのは、文系と理系の境界に近いような分野だと思う——池上
ランダムネスと意味とのあいだに揺れるというところが本質かもしれないですよね——下西
言語やメタファーが変わることによって、ソフトのほうがガラリと変わってしまうというのは全然ありうるだろうなと——下西
AIが賢くなってどんどん科学の謎が解明されていったとして、
最後に残るのは、文系と理系の境界に近いような分野だと思う——池上」

・対談から

*「下西/池上さんは、AIがサイエンスの研究をし始めて、AIがすべての論文を書くようになったら、論文を書きますか?

 池上/うーん、AIと協力して何か達成できることがあるんじゃないかとは思っています……。人間が主じゃなくなるかもしれないけど、人間の役割はなくならないんじゃないかな。先日も落合陽一さんらと話していたんだけど、いずれ人間は自分の論文の査読者になるしかないんじゃないかって言っていたんですね。査読だけは譲れないだろうと。ただ、本当に優れた論文というのは自分でも判断できないのかもしれない。

 もっとも、瞬時に問題を解くAIが現れたら、将棋と同じように科学も意味なくなるだろうと思いますよ。

 下西/それはもしかするとサイエンスと人文学の違いに近いかもしれなくて……サイエンスだったら要らないかもしれないけど、将棋は単なる勝負というより、文化であり、儀式になっていますからね。人間はそういう意味のないことをつないで生きている。だから人間は儀式がないと生きていけないんじゃないか、って僕は思いますけど。

 池上/ただ、科学は儀式になっちゃったら、終わりだと思う。

 下西/科学はそうかもしれないですね。ただ池上さんは、科学だけでなくアートもやってますよね。アートって儀式みたいなところもあるし、それなしに人間は生きられないんじゃないかと思っているんですが、どうですか?

 池上/人間はアート的なものについて考えられるから、人間として存在しうるということだよね。そういう意味ではまさにアートは宝だと思うし、人間の固有性とか経験、意味が活きてくるのは、やはりアートや文芸のなかにあると思う。

 下西/AIが出てきて世界はますます最適に向かっているけれど、そこから外れるものや、それを壊すものをつくり続けることがたぶん大事だし、人間はそういうふうにして生きていくんじゃないかなと思っているんです。

 池上/そうですね。一方で、本当は科学にもそういう側面が必要だと思っていて、その一端をALIFEは担っていると思うんですけどね。そもそも科学がいまみたいに、お金取りゲームになっているのはおかしいでしょう。科学というのは、いいものを発見すべく頑張る協力ゲームであるべきで。」

*「池上/ご存知の通り、ChatGPTやLLM(大規模言語モデル)は、カッコ埋め問題をやっているだけなんですね。次のカッコに何の言葉を埋めるかというときに、確率でもっともらしい言葉を振っていく。そのパラメータそのものはわれわれが自由に変更できる。そうすると、そのパラメータの設定が人間の権利になったらいいのかどうか。

ただ、それも、先ほど話したアラインメントの問題と同じで、なんか間違っているような気がするんですね。つまり僕は、たしかに意味とランダムネスの狭間におもしろいものが出てくると思うけど、だからといって、それを実際に人間が選んだり、パラメータを変えたりすればいい、というふうにはあまり思えないところがあるんですよ。

 下西/なるほど。

 テッド・チャンが「あなたの人生の物語」で、宇宙人の全然違う言語を学んだら人間の意識が変わっていく話を書いていましたよね。その宇宙人の言語は過去・現在・未来を区別しないんだけど、その言語を人間が学んで体得していくうちに、その言語を使う宇宙人と同じような意識になっていって、人間も過去・現在・未来が混在して見えてくる、っていう。別の時間構造を持つ言語をインストールすると、時間知覚そのものが変わるという話。そういう感じで、LLMによって、人間自身が判断基準とか、何かを受け取るフィルターみたいなものをガラリと変えるという可能性はあるかもしれないと思っています。むしろ人間の側がそっちにアラインメントされるというのはあると思う。」

*「下西/人間が可塑的な存在であるというのは同意します。僕は『生成と消滅の精神史 終わらない心を生きる』(文藝春秋、2022年)のなかで、ホメロスからソクラテスまでの間に、意識のあり方がめちゃくちゃ変わったってことを書いたんですね。ホメロスの頃って意識というのは、ほとんどもう風みたいなもので、身体の外から身体の中に入ってきたかと思うと、今度は外に流されて出ていく、そういうものだったんだけど、ソクラテスの時代になると、急に意識は身体の中に囲われていて、同一性をもった自我であり、倫理や判断の拠点であるといった話になって、まるで別ものになる。しかもおもしろいのが、その劇的な心の変容って、たった数百年のあいだに起こったんですよ。

 池上/何がそんなに人間の意識を変えたんですか?

 下西/僕はソクラテスみたいな人が、意識のメタファーを変えたんじゃないかと書きました。つまりハードウェアとしては数百年たらずで進化が起こるはずはないけど、僕たちの使う言語やメタファーのようなものが変わることによって、ソフトのほうがガラリと変わってしまうというのはありうるだろうなと。

 池上/シュメール神話を題材に演じている安田登さん(能楽師)も書いていましたよね。シュメール人も、「心」という言葉を発明したら急に心に関する記述が増えたと。

下西 それに近いことはいっぱい起こるのかなって思う。」

**(「#3 ChatGPTが生み出す新しい言葉が社会を変えるか」より)

*「#3ではGPTが生み出す言葉の可能性、生物らしさ、生命を考えるためのアプローチ、人間の学問の営みの意味へと展開していった。」

・Contents

*「ChatGPTが、われわれが知らない概念や言葉をどんどん生み出すようになって、まったく新しい乗り物や装置が生まれるかもしれない——池上
ソフトウェアはどんなハードウェアを要求しているのか、ALIFEで考えるべきは、まさにその問題だよね。——池上
意味がないかもしれないけど、これ何だっけ?って考え出すというのが、たぶん人間の学問に残されたことなのかな。——下西

ChatGPTが、われわれが知らない概念や言葉をどんどん生み出すようになって、
まったく新しい乗り物や装置が生まれるかもしれない——池上」

*「池上/下西君はChatGPTが生み出すテキストを読んでいるだけでは、人間は変わらないと言いましたよね。でも、本当にそうかな、とも思うんですね。」

「ChatGPTが、われわれが知らないような概念や言葉をどんどん生み出すようになって、それで実験が進んでいって、まったく新しい乗り物とか装置とか、あるいは家具なんかが生まれるということもあるかもしれないと思うんですが。

 下/なるほど……そうなのかな。

 でも、超弦理論で宇宙は9次元とか11次元だという理論がありますよね。あの次元数は経験的な観測に基づいて導かれたわけではなく、計算のうえでうまく辻褄が合うからという理由でつくられてるわけじゃないですか。それってなんなのとも思うわけです。僕らの認知限界がある限り、11次元と言われてもピンとこないというか。

池上 じゃあ、量子力学についてはどう思いますか?

 下西/サイエンスとしてすごいと思うし、量子力学は技術的に必須だとは理解しているんですけど、僕らの認知とか意識にどう関係あるのかな?という気もしていて。」

*「下西vボルヘスの短編で、厳密な地図をつくろうとして、街と同じサイズの1/1の地図をつくってしまったという話があります。最初はあるモデルをつくって対象の本質を理解しようとしていたのに、大きさが違うとか色が違うとか、どんどん対象に近づけようとしていくと、結局はそれそのものになってしまう、という不条理を描いている。同じように、中間層みたいなものを考えようとして、それをどんどん突き詰めていくと、現実そのものに最終的になっちゃうみたいな難しさはあると思うんですよね。

そういう意味では、池上さんのALTERって、わざと裸にしているというか、骨組みを見せて、どこか中途半端な部分を残してるじゃないですか。そこは中間層というか、何か本質的なものを抽出することによって、かえって人間っぽさが見えてくるかもしれないといった意図があるんでしょうか?

池上 そういう意図はありますね。」

*「下西 それからALTERが自律性を持つときに、生きたいとか、この身体を維持したいとか、ソフトがハードを絶対に必要としてしまうみたいな、その必然性も大事かなと思ったんですけど、どうですか?

 池上/それは最も大事な問題ですね。このソフトウェアはどんなハードウェアを、どんな物理を要求しているのかということを解かなくちゃいけない。ALIFEで考えるべきは、まさにその問題ですね。

 このあいだ「細胞を創る」研究会に参加したときに感じたのですが、多くの人はやはりハードウェアのことを考えているんですね。要するに構成要素としてハードウェアを、ソフトウェアとは独立に考えようとしている。ハードウェアをつくりさえすれば、ソフトウェアは勝手についてくるだろうと思っているけれど、そうはいかないでしょう? だって多くのハードウェアはそのままでは生物にならないんだから。一方で、生命をソフトウェアから考えようとすると、ソフトウェアが要求するハードウェアをどうやってつくるのか、という生命の起源問題が浮上してくる。やはりそこへ戻ってくるんだろうなって思っています。

 下西/池上さんが昔、GoogleのエンジニアがGmailのような膨大なシステムを維持するために、とにかくいろいろ継ぎ足し継ぎ足しでハードをつくっているけれど、じつはそれこそが生命の本質なんじゃないかって言ってましたよね。ああ、なるほど、そういうことなんだなって。

 池上/それはいまでもそう思っています。だからそういうタスクとソフトウェアが必要かということからハードウェアを考えなくちゃいけない。

 下西/でも、それって進化の順番から考えると逆じゃないですか。生物の場合、ハードをつくったら、何かソフトみたいなのが生まれちゃったという。

 池上/そのとおりなんです。だからこそ、みんな生命の起源はハードウェアとしての化学反応から考えようとしている。でも、それだとハードとソフトがつながらない。そこに生命の起源の難しさがあるし、ALIFEもそこにコミットしていこうとしています。この難問をいずれ、ChatGPTが解いてくれるのかどうか……(笑)」 

*「池上/僕は、AI が進化して、AIが科学者を超えていくためには別な方向で賢くならなくてはいけないと思っているんですね。現状はまだ、科学者としてのAIが人間を超えているわけではないですよね。

 下西/医療の画像診断で人間よりも精度良く病巣を発見できたとか、創薬のときに、物質の最適な組み合わせを素早く解いたとか、そういうのはありますけどね。

 池上/ジョルダンの閉曲線定理を知ってますか? 輪ゴムを机の上に置く問題。こうやって輪ゴムを机に置くと、内側と外側に分けられますよね? これ、自明のことに思えるけど、数学的な証明がいるんですよ。

 下西/なるほど。

 池上/アメリカの数学会で、人がした証明をAIが検証するという試みがあり、いくつかの公理から始めて、いままで証明されたものをみんなチェックしていったら、ジョルダンの閉曲線定理が引っかかったんですね。レンマ(補助定理)を2つ導入しないとこの証明は正しくないとAIが言ってきたのです。人間のプロの数学者が一度はOKを出した証明なのに、本当は正しくなかった、という。そうなると、わかるとは何かについて考えなおしたくなってしまいますね。

 下西/おもしろいですね。ただ大事なのは、本当に答えが出るということよりも、むしろそういう問いにあれこれ言うことじゃないですかね。たとえば哲学の起源って、古代ギリシアのソクラテスやプラトンにあるけど、当時、文明はエジプトのほうが発展していたんですよね。ピラミッドをつくったり農業のために天候を予想したりしなくちゃいけないから、計算や幾何学が非常に発展していた。でもエジプト人はプラクティカルで、ファンクショナルに幾何学や数学を使っていたから、根源的な議論には至らなかった。だけど、数学が実践と離れてギリシアに来たときに、「三角形って何だ?」とか「円って何だっけ?」とか言い始めて、プラクティカルには意味はないんだけど、「現実の円は本物じゃなくて、本当はイデアとしての円があって」と、変なことを言い出したわけです。

 池上/たしかにそうですね。

 下西/だから、たぶんプラクティカルにスルッと機能しちゃうものはAIでもできるんだけど、そこで何か立ち止まって、意味がないかもしれないけど、これ何だっけ?と考え出すというのが、たぶん人間の学問に残されたことなのかなと。」

*「池上/日常にはないけれども、概念的には重要になる。そういうことが生命システムを考えていくうえでも大事なんじゃないかと僕は思っているんですね。

 下西/それはそう思います。それがないとファンクションだけがあらゆるところで作用している世界になる。そういう異物というか、無意味なことに情熱を捧げ続けるみたいなことが大事なんじゃないかな。どうしてもなんらかのエラーが人間に起こってしまって、そこになんだかんだ言いながら執着してしまう、というようなことが人間の世界を可能にしているんじゃないかと。

 池上/だから、最初に言っていたように、ChatGPTが新しい言葉や概念をつくって、それが物質世界を豊かにして、人間がより創造的に、いろいろ発散させていくという可能性もあるかもしれないと思うんですよね。」

**(「#4 ChatGPTは詩を書く夢を見るか?」より)

*「最終回となる今回は、散歩をしながら、人間とAIの限界と生命の本質に思いを馳せる。」

・Contents

*「どこからでもない眺め(パースペクティブ)を持つ」というのはけっこう難しいことなんですね――池上
むしろクオリアみたいなものだけが最初にあって、そこから主観性のようなものが立ち上がったのではないか――下西
身体の中だけで閉じているのではなく、外側にあるものを使うことで成立するシステムがある――下西
詩とか絵とかも描けなくなっちゃったら、そうしたらもう大敗北だよね、ChatGPTとしては――池上

「どこからでもない眺め(パースペクティブ)を持つ」というのはけっこう難しいことなんですね――池上」

・対談から

*「下西/そういえば、将棋AIが出始めた初期のころ、「Bonanza(ボナンザ)」とか「Apery」とか「やねうら王」とか、いろいろなタイプのコンピュータ将棋のプログラムが乱立していたんですが、棋士たちは「このAIは攻めっ気が強い」などと言ったりして、それぞれのAIに癖や個性を見ていたし、そこからAIを理解しようとしていましたね。人間はどうしても、それぞれのシステムの違いに固有性を見てしまう、というところがあるのかな、と思っているんです。

 池上/そうですね。人間は固有性を見てしまうからダメなんだと思いますよ。突き抜けられない。

 下西 たしかに、それはそうですね。

 池上/AIは固有性を見ませんからね。ただ、科学においては、固有性を本当に排除すべきなのかどうか。それは悩ましい問題だと思っています。

 下西/池上さんの研究は、どちらかというと、固有性を見るほうなんじゃないですか?

 池上/うん、でもそもそもサイエンスというのは普遍性を求めるものですからね。普遍性というのは神の視点から見たものを法則として抜き出す、ということです。

下西 なるほど。じゃあ、ゲーテの『色彩論』(1810年)はどうですか? ゲーテは詩人ですが、この本はいわば当時の科学論として書かれたものです。そのなかでゲーテは「徹夜したあとに外の雪景色を見ると青みがかって見える」といったように、自分の生活の膨大な経験的な観察を記録して、自分自身が知覚する多様な色彩のパターンを集め、そこから色彩の理論をつくりあげた。それは現在の認知科学の営みにも通じる態度だと思いますが、科学が物質だけでなく人間の意識を対象にしたとき、ある種の経験の厖大な蓄積のなかからファンクションや理論が生まれてくる、そういうやり方もあるんじゃないかなと思うんですが。

 池上/それはそのとおりだと思います。でも、そうした固有の主観的経験だけだと、なかなか「どこからでもない眺め」にはならないんじゃないですかね?

 下西/ならないですね。

 池上/ChatGPTの場合は、データとしては無数の人間のパースペクティブが入っているし、アラインメントの問題はあるにせよ、いまや限りなくどこからでもない眺めになっているんじゃないかと僕は思っているんですね。ところが、同じようなことをVRでもつくろうとすると、難しくてなかなかできない。音楽もそうですね。音楽というのは、誰かの固有性を学習することは、比較的簡単にできます。たとえば、バッハ風の音楽のパターンを学習して再現することはできる。ところが、それがノイズだったらどうなのか。ノイズだって個性があるんですよ。もっとも、人間はホワイトノイズの区別はできないから、何もないと思うのかもしれませんが。」

*「下西/「最初に言語ありき」というChatGPTにはどうしても違和感を抱いてしまうんですね。ALIFEがつくろうとしている「意識」とは全然違うんじゃないかな、って。ただ、あらためて考えてみると……言語と言っても、僕たち人間が使うような文法や規則に基礎づけられる言語ではなくて、ChatGPTにとっての言語は、膨大な特徴量が分布するベクトル空間におけるデータの集合なわけで、人間にとっての言語と同じではない……。たまたまわれわれに見えているのは言語だけど、もしかするとそこにあるのはノイズに近いものなのかもしれないですね。

 池上/そう思います。もともとALIFEでも、言語の進化という大きな分野があったのですが、だんだん廃れていったのは、それが人間の言語のようには進化しなかったからなんですね。簡単なシグナルのようなものは生まれてくるけれど、言語は生まれてこなかった。当時は、皆、人間以外は言語をしゃべれないと思っていましたしね。最近の研究では、ゾウが鳴き声で複雑な感情を表現したり、それぞれ固有の名前を呼び合っていたりする、といったことが判明しつつありますが。」

 
*「下西/そうそう、この話って、人間がどこまで足が速くなれるか、といった話にも通じますよね。

 池上/う。もう記録ののび率は完全にサチっていますからね。

 下西/だから知性にも限界があるんじゃないか、と。

 池上/限界にきていると思いますよ。

 下西/でも、そのときはAIが解いてくれるのかもしれない。

 池上/そこに期待しているのです、僕は。

 以前、水泳で、高速水着を着たら選手たちが軒並み世界新記録のタイムを塗り替えて、その水着が禁止になったことがありましたよね?

 下西/そういうの、意味わからないですよね。

 池上/そう、それを「ダメだ」と言って、禁止することに私は不満を持っているんですね。もし、「私はコンピュータを使わずにこれだけの仕事をしました」と言われても、「はぁ?」となりますよね。それなのに、アカデミアはChatGPTに関しては制約かけている。対応は割れているものの、ChatGPTを使った論文は受け付けない、という出版社が多いですからね。

 下西/ああ、そうなんですね。

 池上/僕は、そんなことをしても意味がないと思っているのです。

 下西/それは意味がないですよね。まさに先ほどの水着の話と同じで。そういう意味では、卓球も似ていて、ラケットのラバーが命らしいんですね。ラバーの摩擦によって球の回転や球速、コースが変わるので。それで、新しいラバーが開発されるたびに規制されて、それをハックする側との戦略合戦を経て、どんどん進化していく、という。現実の制約が進化を促すということはあるのかもしれない。

 池上/それはあるでしょうね。だから、研究にしろ、教育にしろ、ChatGPTを使っちゃいけないなんて言うのは、僕はおかしいと思うんですね。研究をする際に、何を使ってもいいから問題を解け、生命をつくってみろ、というほうが、建設的なんじゃないか、と。もちろん、インチキはいけないですが。

 下西/大学の先生も、学生がレポートでChatGPTを使う/使わないで苦慮してるという話を聞いて、大変だなと。

 池上/僕は何でも使っていいって言っています。そもそも、そんな制約をつけて、どうするのかと言いたい。そういえば昔、小学校の算盤の授業に電卓を持っていったことがあるんですよ。それで計算したら、先生にすごく怒られて(笑)。でもそのとき、算盤で計算するのと、電卓でやるのとあまり変わらないんじゃないかと思ったんですね。人間って、何でそういう新しいものに制約をつけたがるのか。

 下西/あぁ。たとえば昔、琵琶法師って関所の関銭を免除されていたんですね。盲目の僧侶であり、ある意味、神聖なものとして扱われていたから。一方で、差別もされていた。関所を自由に通る権利はあるし、霊とも交信できるけれど、異形の者であり、異界に通じる者として恐れられていたんです。そうした得体の知れない能力のある者に、何かマイナスを与えないと、人間は受け入れることができないのかもしれない。

 池上/ハンデをつけようとしたわけですね。

 下西/そう。だから、よくわからないものを受け入れるキャパシティというものが、意外と人間にはないのかもしれないですね。

 池上/その話は、いろいろな話につながりますね。つまり、「公平さ」とは何か、という問題に立ち返ってくる。最初に話したように、AIアラインメントはまさに、公平さに根ざした話であって、ポリティカル・コレクトネスもそうだけど、いまや、いろんなところに顔を出しますね。

 下西/そうですね。AIアラインメントは、やはり何らか人間の倫理の基準を入れる必要があるからといって取り組んでいるわけですね。AIがただ知的な推論やコミュニケーションをするだけだったら大量の言語データを学習させればいいけど、実際には人間の何らかの評価を入れなければならなくて、それはただ言語データの学習からは生まれません。なので現実には、ChatGPTをアラインするためにOpenAIはアフリカなどの人件費の安い国の人たちに、倫理に触れそうな「レイプ」「獣姦」「拷問」などといった記述に関する言語データをチェックさせて、学習データを調整しています。

 池上/そうなんですね。

 下西/つまり、AIは人間に倫理を外注しなきゃいけない、ということですね。人間だったら、これは痛いとか、人を殴ったら相手を泣かせてしまうとか、そうした痛みを伴う経験から倫理を獲得できるプロセスがありますよね。一方、AIの場合は、その痛みの部分を……

 池上/外注せざるをえない、と。

 下西/そう。人間とは違う倫理に基づいているわけで、だからこそ、変にお利口さんなAIができてしまう。スタンリー・キューブリックの映画『時計仕掛けのオレンジ』で、主人公のアレックスの目をかっと無理やり開いて、延々と衝撃的な映像を見続けさせて、矯正しようとするじゃないですか。それでもう自分の意思がなくなっちゃうみたいな。いまのChatGPTって、なんかあんな感じがするんですね。

 池上/そうかぁ。そうだとしたら悲しいね。

 下西/そういうAIには、詩は書けないだろう、と。

 池上/そんなふうに去勢されたお利口さんになっちゃったら――つまり、詩も絵も描けなくなっちゃったら、もう大敗北だよね、ChatGPTとしては。だからやはり、AIに人間の中にあるどんな悪さや、余剰、無駄みたいなものを残すことができるか、というのが、じつは非常に大事になる、ということだと思うんですね。

下西 本当にそうだと思います。」

**【対談後記】より

○池上高志

LLMが身体性を持ったとき、すなわち自律性を持ち、Agencyを示すとき、新しい生命システムが誕生したことを意味する。このことは、いわゆるAIアライメントを考えていく上でも重要なことであろう。来年の今頃、われわれはどういう驚愕すべき事態に遭遇しているのだろうか。その頃また下西くんと話してみたい。

○下西風澄

僕は人文学と自然科学のあいだには、方法論として根本的な違いがあると考えている。だけれどもそれは、両者がきっぱりと袂を分かつことを意味しない。むしろ逆に、その差異のもとに共通の関心について語り合うことによって本質的なことが見えてくる。

重要なことは、学問領域として人文学とサイエンスを統合することではなくて、人間について、言語について、倫理について、学問という枠組みなどなかったかのように、本質についてだけ語り得る「ピュアな思考」を続けることだと思う。ピュアな思考を持ち続けている希少な研究者である池上さんと、またどこかで散歩しながら話せたら、と思っている。

○池上高志
いけがみ・たかし
1961年生まれ。複雑系・人工生命研究。東京大学大学院総合文化研究科広域科学システム系教授。理学博士(物理学)。アンドロイドAlterを用いたアート活動にも取り組む。著書に『動きが生命をつくる』(青土社)、『作って動かすALife』(共著、オライリー・ジャパン)など。

○下西風澄
しもにし・かぜと
哲学者。1986年生まれ。東京大学大学院博士課程単位取得退学後、哲学を中心に講演・執筆活動を行う。著書に『生成と消滅の精神史――終わらない心を生きる』(文藝春秋)、『10才のころ、ぼくは考えた。』 (月刊たくさんのふしぎ2018年6月号、福音館書店)など。

◎F3-5-1
ALIFE 生命とAIのあいだ
意味がありすぎると飽きる、無意味すぎるとわからない。
AIとALIFEをめぐって #1
池上高志/下西風澄

◎F3-5-2
18 Jun. 2024
ALIFE 生命とAIのあいだ
意味と無意味のあいだで変化していく、人間とAI
AIとALIFEをめぐって #2
池上高志/下西風澄

◎F3-5-3
21 Jun. 2024
ALIFE 生命とAIのあいだ
ChatGPTが生み出す新しい言葉が社会を変えるか
AIとALIFEをめぐって #3
池上高志/下西風澄

◎F3-5-4
30 Jul. 2024
ALIFE 生命とAIのあいだ
ChatGPTは詩を書く夢を見るか?
AIとALIFEをめぐって #4
池上高志/下西風澄


この記事が気に入ったらサポートをしてみませんか?