$偉大な知性を獲得したAIが、人類に脅威を与えないよう制御することは人間に可能なのでしょうか?
$偉大な知性を獲得したAIが、人類に脅威を与えないよう制御することは人間に可能なのでしょうか?
ドイツのマックス・プランク人間発達研究所@https://nazology.net/archives/tag/%e3%83%9e%e3%83%83%e3%82%af%e3%82%b9%e3%83%bb%e3%83%97%e3%83%a9%e3%83%b3%e3%82%afの国際研究チームは、理論計算を使用してその可能性を検証してみました。
彼らの出した結論は、「人工超知能を制御することは基本的に不可能である」ということでした。
人工超知能を停止させるパラドックス
たとえば、人工超知能が反乱を企てたとして、私たちが取れる対抗手段はどのようなものが考えられるでしょうか?
研究チームは、この人工超知能の制御方法について、2つのアイデアを検証してみました。
1つは、人工超知能をインターネットや他のすべての技術デバイスから遮断して、外界と接触できなくするというものです。
もう1つは、AIに最初から倫理原則をプログラミングし、人類の最善の利益のみを追求するように動機づけることです。
これらは歴史的なアイデアとしてよくあげられるものでしょう。
しかし、研究チームはこれらの方法の利用には限界があることを示しています。
いずれの方法でも、AIを運用するとき、その危険性を察知してシステムを停止させる必要が生じてきます。
では人工超知能を危険と判断して停止させることは実際可能なのでしょうか?
研究チームは、AIの動作をシミュレートし、有害と見なされた場合にシステムを停止させ人々に害を及ぼさないための、理論的封じ込めアルゴリズムを考案しました。
そしてこのアルゴリズムが正常に動作するかどうかを、1936年にアラン・チューリングが証明した、計算可能性理論における停止問題を使用して検証してみました。
停止問題は機械が自身をチェックして、停止を決断できるアルゴリズムが可能かを検証した理論計算機科学の問題ですが、このときシステムは矛盾した回答を導くことで、思考の無限ループに陥ってしまい回答を出せなくなることが示されています。
これは「嘘つきのパラドックス(自己言及のパラドックス)」として知られる論理問題に似ていると言われています。
このパラドックスで有名な例は、「クレタ人は嘘つきである、とクレタ人は言った」という聖書の記述から作られた問題です。
論理問題は、コンピューターが問題を解決させるときと同様に、真偽(0か1か)という形で問題を判定します。
この例題の真偽を考えた場合、「クレタ人は嘘つき」が真である場合、これを言っているクレタ人は嘘つきではなくなってしまうので、内容が矛盾してしまいます。
似たような原理で、今回研究チームが考案した人工超知能の封じ込め問題は、計算不可能になるのだといいます。
つまり、AIが世界に害を及ぼすかどうかを判断するための単一のアルゴリズムを見つけ出すことはできないのです。
また、人間が自らの手で人工超知能を停止させることを考えた場合も、機械が人間より優れた知性を発揮しているかどうかを判断することは、封じ込め問題と同じ領域にあり、超知能機械が誕生していることさえわからないままになる可能性があると研究は示しています。
論理問題を含む研究は抽象的で分かりづらい部分がありますが、結局人間が人工知能の開発や運用を続ける以上、それを停止する判断を行うこと自体が、機械にも人間にも難しい、ということになるようです。
気づいたときにはもう遅い、ということになってしまうのでしょう。
*上記記事は、上記サイトより引用・編集
https://gigazine.net/news/20210117-ai-control-impossible/
https://www.sejuku.net/blog/106961