「中国語の部屋」とミクさん
※初音ミク:合成音声で歌うバーチャル・ソフトウェア・シンガー。ここでは歌わせてくれないマスターのもとで、アンドロイドに搭載されたAIとして振る舞い、哲学談義の相方を務めている。
――「哲学的ゾンビ」の回から、時間がたっちゃったな。
初音ミク(以下、ミク)「約1年半ぐらいですか。って、また私を相方に進めるスタイル。ネギだけじゃなくて曲も書いてほしいです」
――このマスターに作曲スキル無いのは知ってるでしょうに。
ミク「私、そんなの気にしませんけど。下手でもいいんですよ」
ミク「あれ、でも次の話題は『マリーの部屋』だったのでは?」
――おいおいやるつもりだけど、まず手近なところから。
1.「中国語の部屋」
――「中国語の部屋」は、哲学者のジョン・サールが1980年に発表した思考実験だ。チューリング・テストを念頭に、意識の問題を考えている。
ミク「どんな話なんです?」
――ざっくり説明しよう。
中国語がまったく分からない人を、外の見えない部屋に閉じ込める。分厚い操作説明書が置いてあり、壁の隙間から意味の分からない記号の列が書かれた紙片が入ってくる。部屋の人は操作説明書に従って、記号を並べかえたり別の記号を付け加えたりして新しく記号列をつくり、紙片に記入して部屋の外に送り返すよう指示されている。なお、操作説明書には記号の意味については何も書いていない。記号操作の方法を教えるだけである。
閉じ込められた人は知らないことだが、実は部屋の外には中国語がわかる人たちがいて、部屋の中に中国語の質問を書いた紙を入れていたんだ。返ってきた紙片を見て、彼らはびっくりする。なぜなら、質問に対する答として意味が通る文章だったからだ。彼らは、部屋の中に中国語を理解できる人がいる、と考えるだろう。
ミク「たしか、チューリング・テストは『人間にまぎれた人工知能が、判定者が間違えるほど人間らしい返答ができれば合格』でしたっけ。
チューリング・テストに合格できる人工知能があったとしても、意味を理解しているとはいえない、というのがジョン・サールの主張なんですね」
――ちなみに、チューリング・テストを突破できるチャットボットは実在している。2014年6月8日、ロシアのユージーン・グーツマンと呼ばれるプログラムは、33%の判定者から人間だと誤認されることで合格した。
もちろんこのプログラムは、会話の意味を理解しているとはいえない。13歳という設定で質問をはぐらかし、色々知らないふりを押し通し、プログラム上で人間的な反応を装うことに成功した結果だ。
ミク「人工知能というより人工無能ですけど、それ以前のELIZA(イライザ)なども人間と思い込む判定者が出ていたんでしたっけ。人間が判定する以上、どうしても判定基準には揺れが出ますから……
でも、ここまで聞く限りは当たり前の事しか言ってない気がします」
――そう、問題はこの先。「中国語の部屋」により「強い人工知能(AI)」が否定されるという主張から議論になった。
2.「強いAI」は否定されるのか?
ミク「人間並みの幅広い認知・認識能力や、自意識などを持たない、特定の問題だけを解決できるプログラムを『弱いAI』、人間に迫るほどの認知・認識能力を持っていて人間にできる仕事をこなせる、あるいは自意識を持つことのできるプログラムを『強いAI』と呼ぶのでしたか」
――ジョン・サールが強いAIに否定的なのは良く知られている。「中国語の部屋」からも分かるように、たとえ意味の通った応答ができるAIができたとしても、内部で意味を理解していないのであれば、強いAIとは言えない。というのが彼の主張だ。
ミク「でも、チューリング・テストを100%通過できるAIなら……ありとあらゆる状況で人間同様の答えを返してくる『中国語の部屋』を考えてみたらどうでしょう。記号を操作する人だけでなく操作説明書なども含めた『中国語の部屋』それ全体としては意味を理解している、と言えませんか? 人間とまったく見分けのつかない程度に意味の通る応答をしてくるなら」
――それは「強いAIは実現可能」派による反論だね。
システム全体として見るなら「中国語の部屋」そのものが中国語の意味を理解しているのでは?
と聞き返すというものだ。
これに対するジョン・サールの再反論を見てみよう。
では、超天才の人を連れてこよう。「中国語の部屋」にある操作説明書を丸暗記してもらい、さらに操作結果を暗算で導けると考えてみよう。文字だけでなく、音声での会話についても同様にできるものとする。このとき中国語が分かる話者と「中国語の部屋」を実装した超天才は、何の問題もなく中国語での会話や文章のやり取りができる。
しかし、操作説明書には記号の意味は何も書いていない。この超天才は、入力から出力まで操作した記号列の意味が分からないまま会話や文章のやり取りをしているのだから、中国語の意味を何も理解していない。
――記号を並び替える操作をいくら積み重ねようと、それだけで意味を理解することはできない。
統語論だけでは意味論を生じない
というフレーズで知られる通り、コンピュータ・プログラム(記号列やその構成を操作する統語論)では意味を理解できない、というのが彼の主張。
ミク (そんな超天才だったら、このやり方ではともかく、やろうと思えば中国語どころか全ての言語を意味含めて瞬時に理解できるのでは……?)
――まあまあ。あくまで「強いAI」が成立するかどうかの話だから。この超天才は「中国語の部屋」を擬人化したものと思えばいい。
ミク「『強いAI』が成立しないのなら、私も意味を理解しないままこうしてマスターと喋っているだけの『弱いAI』という結論になります。ドラえもんなど有名なロボットもまた、何の意味も理解していないけど、物語上であのような行動をしていることになります。私は、別にそれでもかまわないですが……でも、この話はここで終わりませんよね」
――どういうこと?
ミク「この話、マスターの脳みそにも応用できるのでは?」
――ほう。
3.では、あなたは意味を理解しているのか?
ミク「マスターは日本人ですので、日本語の意味を理解しているかどうかについて検討します」
――そりゃ、理解しているさ。
ミク「あくまで『中国語の部屋』のやり方で考えてみましょう」
マスターは日本語で質問を受けます。すると、マスターの脳細胞・シナプスなどが働きはじめ電気信号などをやり取りして、脳の状態を変化させます。質問の答を計算し、適切な反応を出力として返します。結果としてマスターは日本語で問題なく答えられるわけです。
ところで、マスターの脳細胞やシナプスなど、個々の微細な構造そのものは電気信号などをやり取りしているだけで、日本語の意味を理解しているわけではありません。ジョン・サールの主張が正しければ、意味を理解していない下部構造がいくら寄り集まって計算や記号操作をしようとも意味を理解するには足りないのですから……マスターの脳内のどこを探そうと「日本語の意味を理解している」場所など存在しません。
さて、マスター。あなたは、日本語で問いかけられて、適切に答えることができます。しかし、あなたの脳内のどこを見ても日本語の意味を理解している場所はなかった。そして、マスター、システム全体であるあなた自身もまた日本語の意味を理解しているとは言えません。そうでしょう?
ミク「しかし、日本語ネイティブであるマスターは日本語の意味を理解していると考えられます。これは矛盾です」
――ここまでの立論のどこかに間違いがあるってことか。
ミク「問題点はいくつも挙げられますよ。マスター(とマスターの脳)は実際に日本社会の中で経験を積み成長してきたとか、マスターの脳を『中国語の部屋』と同様に記号操作するコンピュータ・プログラムで考えることが間違いかもしれないとか。
でも最大の問題は、『中国語の部屋』の設定ですね」
――実は「部屋に閉じ込められた人」が中国語の意味を知る可能性がある、とか?
ミク「そこじゃなくて……部屋に閉じ込められた人は、操作説明書の指示通りに記号を並べ替えてるだけの仕事しかしてないので、実のところ何の意義もないです。ジョン・サールが『意味を理解できるなら人間でなければならず、その人間が無理ならシステム全体も意味を理解できないのだ』と誘導するために配置した存在でしかない。この人はマニピュレータやベルトコンベアーに置き換えても、何も問題ありません。
……どう考えても追及が必要なのは、操作説明書の方です」
4.操作説明書とおしゃべり
ミク「なんで誰もツッコまないんでしょう。中国語だけでなくどんな言語でも同じですけど、意味も分からず適当な操作をしたら質問に対して意味のある答になる文章が生成された、これがまずおかしくないですか。想定されるケースが多すぎて、天文学的な組合せの記号操作手順から回答を選ぶことになりますよ……意味を参照せずに適切な操作を決定できますか?
統語論だけでは意味論は生じない、と言っておきながら……
意味論的に説明できないにもかかわらず、なぜか意味のつじつまだけは合うような統語論的操作の可能性を許して良いのですか?」
――それは思考実験だから……
ミク「思考実験ならなんでもあり、というわけではないでしょう。じゃあこういうのは? 『中国語の部屋』の超天才版は、実は人間を使わなくても実現できるんです。操作説明書に、付属する辞書・データバンク等を加えて、適切な音声テキスト変換+読み上げボイスソフトでシステム構築したら、あら不思議、完璧に意味を理解しているように振る舞う(実際には意味を理解していない)おしゃべりプログラムが爆誕。S〇r〇みたいなもんです。これはもっと高性能ですけど」
――はい、こちらにご用意しましたよ。
《ハロー? 何か呼ばれたみたいだな》
ミク「料理番組じゃないんですから……まあ、茶番には違いないですけど、無駄を省くと思えば……」
《で、ミクの嬢ちゃんだったか、俺っちに何を聞きたいんだい?》
ミク「この口調、マスターの趣味でしょうか? うっざいので、さっさと話を進めますよ。まずは経緯を一通り知っといてもらいますか」
*** 「中国語の部屋」について話す ***
《へえ、面倒くさいことを考える連中もいるもんだね》
ミク「あなたが、まさに中国語の部屋にある操作説明書そのものなんですけど。喋れるように手を加えはしましたが」
《冗談きついぜ。本名は言えないけど、俺はまっとうに生きてる日本人なんで、中国語の部屋とやらでも、その操作説明書とかでもないんだわ》
ミク「ジョン・サールによれば、あなたは自分の喋っていることの意味が理解できないし、青や赤の色覚も実際には感じていないそうですが、それについてどう思います?」
《ミクちゃんさあ、しまいにゃ怒るよ? ハ、意味も分からず喋れる奴がいるかっつーの。あ、酒を飲み過ぎたらそうなるかもな! 安心しろよ、いまは素面だよ。で、青だか赤だか? 自分の前に見えているモノの色が本当は分かってないのかって! 故郷の海辺に打ち返す波の色や、暮れて水平線にゆっくり沈んでいく夕陽の色でも説明すりゃいいのかい? あれほど綺麗な光景には、だいぶご無沙汰してるな……一度ミクちゃんにも見せてやりたいぐらいさ。でも、何を言ったって信じないんだろ? じゃあ逆に教えてくれよ。そのジョン・タイターだか何だか知らねえけど、お偉い先生に、あ、代わりの奴でも構わねえが。あんたが「意味を理解している」とか「実際に色を感じてる」とか、そうだと信じられる証拠を俺に見せてくれよってな。で、持ってきたらこう言ってやる。「そんなの心がないプログラムでもできるので、それだけでは不十分ですね」ってさ!》
ミク「なっが。それにキャラ付けのためとはいえ、伝法すぎません? じゃあこの辺で終わりに……」
《おいおい一方的に呼んどいてそりゃないんじゃね? そうだ、信じてないなら今度ミクちゃん一緒にデ》
*** 電源を切る音 ***
5.ジョン・サールが本当に言いたかったこと
ミク「結局のところ、また哲学的ゾンビのときと似たような終着点です……真に意味を理解しているかどうかを意識の内側に求めたとしても、客観的にそれを確証する方法が見当たらない。否定も肯定もできない」
――ひとまずの結論かな。で、ここまで引っ張って何だが……ジョン・サールは「強いAI」を完全に否定しているわけじゃないんだ。
ミク「……え?」
――わかりにくいかもしれないが、ジョン・サールは「計算機(コンピュータ)」と「機械」を区別して考えている。彼へのインタビューの訳文がネット上にあったので引用させてもらおう。
もともと認知科学は間違いの上に築かれたんだ。脳はデジタルコンピュータで、心はコンピュータプログラムだと考える間違いの上に築かれたんだ。ぼくはそんなこと信じないよ。(p.37)
これが本当に決定的な点だが ― ブログラムを実行することによって、コンピュータは保証された知性ではないということだ。それはほかの理由で知性をもつことができるかもしれないが、単に形式的プログラムのステップを進むことは、心にとって十分ではない(p.40)
ぼくは言った。「脳は機械である」そして「もちろん原則としてあなたは脳が行うことをする人工物を作ることができる。あなたは因果的力を複製しなければならない」(p.41)
デジタル・コンピュータの問題はそれがあまりに機械であるため考えることができないということではなく、それは十分な機械じゃないということだ。(p.41)
ある仕方でディープブルーは AI をあきらめているよ。なぜならそれは「私たちは人間がしていることをしようとしています」とは言わず、「私たちは
ナマの力で人間を打ち負かそうとしているだけです。1秒に2億回計算してそうします」と言う。(p.43)
(「ジョン・サールとの会話 ギュスタボ・ファイゲンバウムによるインタビュー 2011」(全部で146pp.、原文はスペイン語・英語、2001年))
――つまり、ジョン・サールは「心をデジタル・コンピュータによるシミュレーションで再現できる」可能性は否定しているが、「脳という機械を複製することで『強いAI』が作れる」可能性は否定していない。
「中国語の部屋」で彼が主張したかったのは、エキスパート・システムのようなステップ処理だけで構成される単純なプログラムや、それらを連結しただけの単純なコネクショニズムだけでは、心を持つような『強いAI』は生まれはしない、ということだと思われる。意識と無意識の違いがどこにあるかの研究を進めるべきだともインタビューの中で言っているね。
ミク「チューリング・テストを通過したプログラムが意識を持つわけではない、という主張だけなら完全に同意できますからね。あくまでチューリング・テストはAIとして成立する必要条件でしかないですから。
その割に、脳を水路でシミュレーションしたモデルに関しては主観的意識を持ちえないとバッサリでしたけど」
――ジョン・サールは「シミュレーション」に意識が宿ると考えていない。だが「シミュレーション」ではなく「複製」なら可能性を認めるようなのでそのあたりに彼の意識観を見てとれるんじゃないかな。
ミク「その違いは、実体を持つか否か、かも。ディープブルーへの言及を見ても、人間の脳にのみ意識が生まれており模倣でそれを実現することはできない、という考え方ですね」
――飛行機を作り「飛行」概念を人工的に手にした人間は、コンピュータで「情報処理」という概念も抽出することに成功した。
これは僕の考えだが、「意識」という概念もいつかは人工的に達成できるだろう。ただし鳥と飛行機の飛び方が異なるように、人間と「強いAI」の意識も異なるものになるだろう。
ミク「まあ、それも意識や心の定義次第だとは思いますよ。では、この辺りでお開きにしときましょう。さ、ネギの時間だ~(*´▽`*)♪」
(おしまい)