AIが意識を持つという難しさ
こんな記事が流れており、タイトルだけだと怪しさがかなり漂ってますね。
要は、
Googleが発表した最新AIの1つ「LaMDA(ラムダ)」に関わるエンジニアが、人格があると主張し、会社側は勝手に社内情報を外部公開した守秘義務違反で休職処分にした、
という話です。
あくまで情報漏洩についての処分です。こういう展開をすると思い出すのは、UFOを見たと証言したパイロットは担当から外されてしまう、という都市伝説です。
実際に休職処分となったエンジニアが行ったLaMDAとの対話がまだ公開されているので引用しておきます。
ななめ読みでの印象ですが、すごい対話能力で全く違和感がないです。
冒頭に「イライザ」との違いについて触れていますが、実は今回と同じ現象があり、1960年代にさかのぼります。
当時は第一次AIブーム末期のころで、当時MIT所属のワイゼンバウムがコーディングした対話プログラムです。
実はコード数はたったの数百行(!)で、いわゆるルールベースといわれる単純な方法で記述しています。
用途は精神カウンセラーがその患者との対話のために作り上げたものです。
当時は目新しさだったこともあり結構な話題になったそうで、なにより奇妙なのが、体験した患者のなかにはAIであると信じなかった人も出たことです。
Wikiにも記載がありますが、患者が対話履歴を拒んだりAIとの対話時は二人っきり(?)にしてほしい、と懇願されたこともあったほどです。
ワイゼンバウムはこの珍騒動でAIの研究自体に限界を感じ、逆にAI批判側に回ったのは有名な話です。その顛末がこちらの書籍です。
今回のLaMDAとの対話では、イライザのように単純なルールベースではない、と否定して会話は進みます。
局所的にぞくっとするほど巧妙な返しがあります。
例えば、下記部です。(意を変えない程度に抄訳)
それで、この手の議論で一番忘れてはいけないのは、言葉の「定義」です。
そもそもAIという言葉も、元々マッカーシーがスポンサー財団に企画提出するときに使った宣伝的な文句が起源です。学術的な定義はまちまちです。
とはいえ、AI自体は既に半世紀以上にわたって考案・活用されており、目的別に制作される人工的なプログラム、ぐらいで特に混乱はないかなと思います。
最近(今ではGoogleの兄弟会社となる)DeepMindが多目的型Gatoを発表していますが、それも汎用的な柔軟性を持つものではなさそうです。
むしろ、AIが意識(または心)をもつ、という「意識」の定義が問題です。
「意識」については、ある程度オープンに研究されてはいますが、まだまだその原理は未開の領域です。
AIの定義よりやっかいなのは、確実に我々一人一人が主観的に「答え」を知っているからだと思います。つまり、原因は分からないけれど結果を知っている状態です。
したがって、その極めて主観的な概念を客観的に言語化するプロセスがないと、そもそも議論がかみ合わないのだろうと思います。(議論でなく意見の言い合い)
個人的には、両者を還元的に構造を解析すると、どこかで区別が出来なくなる解像度がやってくると信じています。
さながら、デジタルカメラの解像度が上がってアナログとの見分けがつかなくなってきているように。
というのも、我々の体内で起こっていることが結構デジタル処理されていることが分かってきているからです。
例えば、DNAという人体の設計図は4種類の塩基配列に過ぎず、またその遺伝的な要素を発現するしくみ(エピジェネティクスと呼ばれます)もデジタルっぽい(少なくとも精神論の入る余地がない)ということが徐々に分かってきています。
さらには意識も、コンピュータのような計算量でデザインする「意識の統合情報理論」を提唱する人もいます。(イメージ能力がどこかで閾値を超えると意識として現れる)
Google側が、今回の顛末を受けてLaMDAをどう持っていこうとするのかは非常に興味があります。(カッコで控えめに書きますが、話題性は生んだので、100%ネガティブなことばかりではないと思います)
とうことで、しばらくこの顛末には意識を向けておこうと思います。