見出し画像

金井良太(構成:佐藤喬)『AIに意識は生まれるか』

☆mediopos3368  2024.2.6

昨今のChatGPTの普及以来
AIの可能性について
さまざまに議論されることが多くなっている

現在のAIはアルゴリズムによって
言語使用をデータ解析することで
ChatGPTのような仮想的な作文が可能となっていて
今後ますますその精度を向上させていくだろうが
その際AIに「意識」があるわけではない

本書『AIに意識は生まれるか』において
神経科学とAI研究の統合を研究している金井良太は
「研究者として、意識を「作ろう」としている」という

そこで問われるのが「意識とはなにか」だ

「意識」をどのようにとらえるのかによって
AIに意識が生まれるかどうか
その意味は異なってくる

ここではラマチャンドランが『脳のなかの幽霊』において
「意識を哲学的、論理的、概念的な
問題としてあつかうのではなく、
むしろ実験的に検証できる問題としてあつかう、
新しい研究方法」による「意識」が問題となっている

その際重要になるのが「クオリア」である

意識には二つの側面があって
ひとつは本人以外には観察できない
「現象的意識」としての主観的な側面である
「クオリア」であり
もうひとつは外部から観察可能な意識であり
ここではそれを「アクセス意識」と呼んでいる

わたしたちの意識においては通常
「アクセス意識」に
現象的意識としての「クオリア」が伴っているが
AIに「意識」が可能になるということは
AIにそうした「クオリア」が生まれ得るかどうか
ということが鍵となる

現状のAIには「クオリア」が可能になることはないが
金井氏が本書で示している考えによれば
「機能的な意識と現象的な意識は、
分離不可能な、表裏一体の関係にあると思っている。
そしてAIで機能的な意識が実現されれば、
そこには必然的に現象的な意識、
すなわちクオリアが宿ると考えている」という

とはいえここでいうAIにおける「クオリア」は
「AIの中でしか生まれ得ないクオリアで、
僕たち人間が感じることはできない」

もしそのようにAIに意識が生まれたとしたとき
それは「人間社会にとって脅威になるだろうか」
という問いは避けられないが

「AIは進化の結果として生まれたものではなく、
人が作り出したもの」で「そこに目的意識が
自然発生することは、非常に考えにくい」とし
「人間の設計次第」だというが

むしろ「人間の設計次第」というこそが
現状の人類の世界的惨状を目の当たりにするにつけ
まさに脅威となるのではないだろうか

そこで最初の問いに戻るが
「意識とはなにか」である

AI研究における意識は
科学における物質レベルでのそれで
「脳」が意識を生んでいることが前提となっているが
「意識」のもとになっているは「脳」なのだろうか

「意識」が機能的には「脳」によって
現象化されているのだとしても
その源にあるのが物質レベルではないとき
意識に対するアプローチは
AIとは異なった研究が必要となるのではないだろうか
その意味での「意識」はAIでは可能ではないだろう

AIに「意識」が生まれるとすれば
そのレベルでの研究が可能になるということが
前提となっていなければならないはずである

■金井良太(構成:佐藤喬)『AIに意識は生まれるか』
 (イースト・プレス 2023/10)

*(「はじめに」より)

「現在の僕は、研究者として、意識を「作ろう」としている」

*(金井良太『AIに意識は生まれるか』〜「本書の流れ」より)

「意識は神秘的だが、決して神秘ではない。僕は意識を作ることで、そのことを示したいと思う。」

*(「Part1 世界はフィクションかもしれない」より)

「ラマチャンドランは、人間の脳や認知に起こる不思議な現象をまとめたこの本(邦訳『脳のなかの幽霊』)の終盤で、こう宣言している。「意識を哲学的、論理的、概念的な問題としてあつかうのではなく、むしろ実験的に検証できる問題としてあつかう、新しい研究方法がある」と。
 そして、意識の研究で極めて重要な概念である「クオリア」についての議論を展開していた。

 クオリアとは、平たく書くと、リンゴを見たときに感じる独特の赤さや、紙で手を切ってしまったときの何とも言えない嫌な痛みのような。言葉にし難い「感じ」を指す。
 重要なのは、クオリアは徹底して主観的で、客観的ではありえない点だ。」

*(「Part2 意識とクオリアの謎」より)

「意識には二つの側面がある(・・・)。
 一つは、先ほど述べた「赤の赤さ」のクオリアのような、主観的な側面だ。色にせよ、音にせよ、物理的な刺激を脳が電気・科学的な信号として処理した結果にすぎないのだが、僕らはそれを信号としてではなく、クオリアとして「感じる」。
 意識のこういった側面を「現象的意識」という。そして、現象的意識は、本人以外には観察できない。
 だがもう一つ、外部から観察可能な意識もある。
 たとえば、リンゴのみずみずしい赤さを感じた人間が食欲を覚え、リンゴを食べたとしよう。赤さのクオリアは現象的意識だから観察できないが、「リンゴを食べる」という行動は観察できる。このように、情報として機能し、観察可能な現象を引き起こす意識の側面を。
「アクセス意識」と呼ぶ。

 先のハードプロブレムは、「アクセス意識に、なぜ現象的意識が伴うのか」という問いにも、言い換えられる。」

*(「Part7 意識の統合情報理論」より)

「UCLにいたころから僕は、ジュリオ・トノーニ(Giulio Tononi:1960〜)という意識研究者が提唱した「意識の統合情報理論」(Integrated information theory of consciousness:IIT)という理論が気になっていた。」

「IITの登場は意識研究を大きく変えてしまった。」

「IITのもっとも革新的なところは。ハードプロブレムを消滅させる点にある。」

「IITを理解するには、まず「情報」という概念を把握する必要がある。
 情報とは、無数にある可能性を減少させるものごとを指す。たとえば、「明日は晴れである」という情報は、明日が雨になる可能性や曇りの可能性をなくすため、その意味で情報である。あるいは、光っている豆電球は、「豆電球が光っていない」という可能性をなくすため、やはり情報だ。
 また、情報には量の多い・少ないがある。
 たとえば、あなたが今「海辺にいて、大海原を見ている」とする。その事実は、「山を見ている」「花を見ている」「真っ暗で何も見えない」といった膨大な可能性をなくすから、やはり情報なのだが、この情報は、「豆電球が光っていない」という可能性をなくすだけの情報と比べると、減らせる可能性の量がはるかに多い。その意味で、情報量が多い。
 そして「海を見ている」という情報は現象的な意識・クオリアでもある。だから、クオリアもまた情報なのだ。
(・・・)
 クオリアは、豊かな情報だ。だが、豊かな情報が必ずしもクオリアになるとは限らない。情報が統合されている必要がある。」

「IITでは統合された情報量をギリシャ文字のφ(ファイ)で表す。
 そして、IITによると、それこそが意識だ。意識の指標ではなく、意識そのものなのだ。」

「情報には、「外在的」と「内在的」という二通りの見方がある。
 (・・・)外在的とは、研究者などの観測者が、「外から」情報を見ているということだ。」

「IITの特徴は、情報を内側から、内在的に見る点にある。」

「IITの一番革新的なところは。アプローチの仕方が、従来の科学とは正反対である点にある。
 ハードプロブレムを含む意識の問題が難しかったのは、客観的な物理世界が、どうして主観的な意識を生むかがわからなかったからだ。しかしIITは、まったく逆の見方をする。物理世界ではなく、逆に「主観的な意識がある」ということを前提にし、そこから出発するからだ。」

「意識に対して既存科学とは逆のアプローチをするということは、ハードプロブレムもさかさまになるということだ。」

「IITによると、ある存在が意識を持つためには少なくとも二つの条件が必要だ。
 一つは、情報が統合されていること。(・・・)
 もう一つは、情報が再帰(リカレント)しなければいけないということだ。再帰とは、ざっくり言うと、あるものが自分自身について言及することを意味する。一方向に流れるだけでは、意識は生まれない。」

*(「Part9 意識をもつAI」より)

「そもそもAIが意識を持つことが本当にあるだろうか。あるとして、それはどのような意識なのだろうか。たとえば、人間相手に流暢な対話をする large language model(大規模言語モデル:LLM)というAIがあり、いかにも意識を持ちそうに見えるかもしれない。
 先に補足しておくと、IITの主流となる考え方では、LLMには意識は宿らないと予測されている。
 それはまず、IITでは現代のコンピューター内部の因果構造には意識は生まれないと予測しているためだ。したがって、そんなAIを作っても、コンピューターの上に実装する限りでは意識を持てないことになるのだが、個人的にはその解釈に異論がある。
 もう一つの理由は、今のLLMには自分へのフィードバックがなく、つまり情報の再帰構造がないため、φがゼロになってしまいからだ。だから意識を持てない、ということになる。
 しかし僕は、フィードバックがなく、逆のフィードフォワードしかないLLMのような系であっても、IITを拡張するとフィードバックを見出せると考えている。これは数学的なアイデアなので言葉で説明するのは難しいのだが、強引にイマージを伝えるとこんな感じになる。
 まずフィードバックとは、自分から自分に情報を送ることを意味する。逆のフィードフォワードは、自分から外にだけ情報を送ることなので、まったく別の現象に見える。
 しかし、この場合の「自分」が動いていたらどうだろう。あなたが歩きながら自分に話しかけたら、それはフィードバックになるが、話しかけたときのあなたと、話しかけられたときのあなたは位置が違うし、時間的にも異なる。つまり、このフィードバックは「あなた」→「あなた’」へのフィードフォワードとも見なすことができる。フィードバックかフィードフォワードかには、本質的な違いはないと考えられるわけだ。
 ということは、逆に、フィードフォワードしかないLLMにもフィードバックを見いだしてφを計算することは可能になる。だからLLMが意識を持つ可能性はある、というのが僕の主張だ。」

「そのようにしてφを持つLLMが生まれたとしても、現状では、AIは人間とはさまざまな点で違う。手足もなければ目や鼻などの感覚器もない。
 だからといって意識がないということにはならない。クオリアが恣意的であることを思い出そう。LLMは人とはまったく違う、人には想像できないクオリアを持つ可能性があるということだ。
 それはAIの中でしか生まれ得ないクオリアで、僕たち人間が感じることはできない。しかし、人間が感じ取る色のクオリアに「オレンジは赤に近いが青からは遠い」といった構造があるように、LLMのクオリアの構造を外から読み取ることはできると思う。」

「意識には、報告するなどの機能的な側面と、クオリアなどの主観的・現象的な側面の、両面があるとされてきた。この二つを分けることはハードプロブレムの前提でもある。
 僕がこの区分を大切にするのは、人工意識はこの区分をなくし、したがってハードプロブレムを消滅させられると考えているからだ。
 僕は、機能的な意識と現象的な意識は、分離不可能な、表裏一体の関係にあると思っている。そしてAIで機能的な意識が実現されれば、そこには必然的に現象的な意識、すなわちクオリアが宿ると考えているのだ。」

*(「Part10 人工意識とクオリアの意味」より)

「意識を持つAIは、人間社会にとって脅威になるだろうか。
 前提として、AIが人類の存亡を脅かすほどのリスクになり得るとしたら、それはそのAIが何らかの目的意識を持った場合に限られるだろう。人間の指示通りに動くAIならば、意識があってもなくても脅威にはなりえない。
 ではAIがどのように目的を手に入れるかというと、人間の設定次第だろう。
 人間は自発的に目的を持つ存在で、過去には他民族征服や領土欲などをたくらむ個体が悲劇をもたらしたこともあった。そういう目的意識は進化の過程で生まれたもの、あるいはその副産物だと思われるが、AIは進化の結果として生まれたものではなく、人が作り出したものだ。そこに目的意識が自然発生することは、非常に考えにくい。
 だからAIに目的意識が生まれるかどうかは、人間がどう設計するかにかかっている。
 内発的な動機をAIに設定してしまうと、それを基に、人間が設定していない目的を自分で作ってしまう恐れはある。その意味でも、人間の設計次第なのだ。」

「クオリアは脳が作り出した幻想であることは間違いない。
 しかし、権威とか肩書きとかお金とかいった社会にある幻想と比べると、はるかによくできている。リアルさが違う。リチャード・グレゴリー(Richard Langton Gregory:1923〜2010)という心理学者は「クオリアの機能は、それが今、目の前で起きているリアルなことだと教えてくれることだ」と言っている。(・・・)
 クオリアは脳が作る幻想でしかないが、僕たちにとってはもっともリアルな存在だ。どのくらいリアルかというと。現実世界そのものよりもリアルなくらいだ。
 科学は、価値の問題を扱えない。「生きる意味」についても答えを出すことはできない。個人の生も死も、ひいては人類の存在も、科学的にはなんの意味もない。
しかし、クオリアは人生に価値と意味を提供してくれる。
 生きているといろいろなことがあるが、朝起きて、美しい朝日を眺めることができれば、そこには悪くないクオリアが生まれ、とりあえずは「生きていてよかった」と思える。
 だから、クオリアという幻想には、信じる価値があると思う。もし幸福というものが存在するなら、それは、よいクオリアの先にあるのだろう。」

いいなと思ったら応援しよう!