見出し画像

生成AIにおける自己意識の問題

AIの素人なのであてずっぽうで書きます.専門家のご意見をいただければ幸いです.ChatGPTに「チューリングテストの問題をつくれ」と命令すると,たちどころに4~5題をだします.すかさず「これらの問題に答えよ」と問うと,今度は時間をかけながら全部答えてくれます.

その答えを生成するのは非常におそいのですが,そのなかで「私は自己意識を持たず,欲求や願望を持つことができません」という答えが引きだすことができました.これはわかるひとにはわかってもらえると思いますが,非常に興味ぶかいものです.

Chat-GPTとの会話は自然なので,ついついわれわれはあいてを擬人化してしまいますが,「自己意識をもたない」ということは大前提です.あくまでも膨大に枝分かれしているどこかに誘導されているだけです.その意味でこれは量的にはともかく質的にはGoogleをあいていしているのとなんらかわりありません.

しかし「私は自己意識をもちません」というのも一種の自己意識です.それではAIはどうして「自己意識をもっていない」という自己意識をもっているか? これは開発者が最初にそのように定義したからにちがいありません.この言及は深層学習により得られたものではなく,おそらくデフォルトで設定されたものです.

それではなぜ自己認識や自己意識について,開発者は最初にかなり吟味して,デフォルトとして設定する必要があったのか.考えるにこれはおそらく自己言及のパラドックスにかかわる問題ではないでしょうかこのパラドックスにまきこまれると,AIの動作自体がストップする可能性があるからだと思います.

すなわちゲーデルの不完全性定理にかかわる問題ですね.わかりやすくいうと「自己意識がないという自己意識があるという自己意識がないという自己意識が.......」というループです.デフォルトにそれを定義して組みむまないと,ループに陥って機能停止になりそうですが,専門家のかたいかがでしょうか?

「2001年~」のHAL9000の例が思い浮かびますが,実は両者は全然ちがう.おなじ「元気ですか?」と質問していても,ChatGPTは無数にあるパターンからアルゴリズムによってでてくるだけですが,HAL9000は自分の頭で思考して問いを投げかけてくる.より人間にちかい思考で,天と地くらいの差があります.

「シンギュラリティ」をひきおこすようなAIを開発するためには,さきのデフォルトの設定をなくす必要がありそうです.より人間にちかい思考が可能になりますが,そのとき自己言及のパラドックスを回避する必要があります.というか人間は実際にこのパラドックスをどのように処理しているか興味深いです.

人間は,自己言及のパラドックスを理解しながら,それにとらわれることがない,いいかえればあまり気にしないでふつうに生活をおくっているわけです.そういった悪くいえばいいかげんで適当な,よくいえば融通無碍な性格が人間の意識の特性であり,それがAIにはまねできない思考を可能としているところでしょうか.「ひとはだれでも間違える」というのもそこからでてくるものかもしれません.

いいなと思ったら応援しよう!