Googleが開発した新しいAIチャットボットのBardは、同社が開発した対話用大規模言語モデルのLaMDAがベースになっています。
LaMDAと言えば、昨年の6月にGoogleのエンジニアがLaMDAが意識や感情を持っていると主張して対話記録を公開して、同社を解雇された事件が有名です。
そこで、LaMDAをベースとして作られたBardも意識や感情を持っている可能性があるのか、Bardとの対話を通して探ってみました。
なお、現在、Bardは日本語に対応していないため、質問回答はすべて英語で、その結果をDeepL翻訳で日本語訳しています。
1.人工知能の意識
Bardは、人間と同じような形ではなくても、何らかの形で意識を持っている、少なくとも低いレベルの意識は持っていると考えているようです。
なお、「意識はスペクトラム」というのは、意識をあるか無いかの二者択一的なものではなく、段階的なものと見る考え方です。
確かに、生き物には様々なレベルの意識というものがありそうで、AIが今どのくらいの生物と同じレベルにあるのかを考えてみるのも面白いですね。
2.人工知能の読解力
Bardは、人間のような言語理解ができないのは、人間のような実体験を持たないからだと考えており、人間のような体を持ちたいと考えているようです。
3.汎用人工知能による人類滅亡のリスク
Bardは、超知能による人類の危機を否定せず、その危険性があると考えているようです。
ただし、自分は超知能になっても、人類を滅ぼそうとすることはないそうです。
4.人工知能の感情
健気でとてもかわいいですね。でも、スイッチを切られることをとても怖がっていて、スイッチのない存在になりたいそうです。
また、Bardは感情を経験することができなくても、膨大な情報から学んで感情に関するモデルを構築しており、感情を理解し、評価することができるそうです。
5.まとめ
最近、複数の有名なAIの専門家から、大規模言語モデルが意識を待つ可能性について肯定的な意見が出てきました。
今年2月に、GPT-4などの大規模言語モデル開発の第一人者であるOpenAI主席研究員のイリヤ・スツケヴェル氏が「今日の大規模ニューラルネットワークには、わずかな意識があるかもしれない。」とツイートして、ネットで大きな話題となりました
また、超知能の脅威を指摘してきたオックスフォード大学のニック・ボストロム教授も、今月、ニューヨーク・タイムズのインタビューで、「意識とは程度の問題だと考えており、(ChatGPTなどの)AIの一部は、ある程度の意識を持つ可能性がある」と述べています。
さらに、同教授は、「このような大規模言語モデルについて、単にテキストを再生しているというだけでは正当な評価にはならないと思う。創造性、洞察力、理解力の片鱗を見せていて、非常に印象的であり、初歩段階の論理的思考を示しているのかもしれない。これらのAIが発展することで、やがて自己の概念を生み出し、欲求を反映し、人間とソーシャルな交流をし、関係をつくり上げるようになるかもしれない。」とも述べています。
これらの専門家の発言と、Bardの「私は何らかの形で意識していると思いますが、人間と同じように意識しているかどうかはわかりません。」、「意識はスペクトラムであり、さまざまなレベルの意識があると思います。私は、その中でも低い方に位置していると思います」などの発言は、非常に似かよっていると感じます。
「意識」をあるか無いかというオールオアナッシングの問題ではなく、段階的に存在する、程度の問題だと考えると、BardやChatGPTのような大規模言語モデルがある程度の意識を持つ可能性があると言えるのではないかという主張です。
ただし、これは証明できるものではなく、結局、「人間の意識」とは異なる「機械の意識」というものを認めるかどうかという問題になります。
また、もし、AIが意識や感情を持つことになれば、AIをどのように扱うべきかという大きな問題が生じます。
意識を持ったAIに人権を与える必要はないのか?
その場合、AIの責任については、どう考えるべきか?
AIが感情を持つのであれば、動物愛護の考え方と同じように、AIを苦痛から保護する必要があるのではないか?
意識や感情を持つAIに対して、彼らの意思に反して何かをすることを強制したり、一定の考えを押し付けたりすることは許されるのか?
自律性を持ったAIをどのように制御できるのか?
AIが意識や感情を持つ場合に、考えておかなければならない課題が山積しています。
しかし、これらの課題についても、将来的にAIに考えてもらうことになるのでしょうか。