■AIは思考しない。AIについて心配不要
■ AI は一切思考しないと私は断定します
エニグマという上下2巻のアラン・チューリング伝を三ヶ月前に読了し、AIについていろいろいわれている心配に根拠がないことがようやくわかった気分です。
コンピューターの原理は既にチューリングが完全に記述しており、現在のそれもチューリング・マシンであり、従ってコンピューターは思考できないというのが結論です。このことについてわかりやすいのは⇒ https://www.te.chiba-u.jp/lab/brains/itot/work/brains/b1/text2.htm
Alan Turingは思考する機械の実現はできると信じて、いろいろと検討しましが、実現する方法を見いだすことはできなかったのでした。
``今のAI(コンピューター)はチューリングマシーンそのものである。良く知られているように、「与えられたチューリング機械が停止するかどうかをチューリング機械で決定することはできない(停止性問題)。これはゲーデルの不完全性定理の別の表現の形とみなすことができる」''⇒より引用 https://ja.wikipedia.org/wiki/チューリングマシン
まだまだ知識も思考も足りないのですが、メモを記します。以下に「思考」について定義してますが、私はアルゴリズムという単なるブログラムの作用は思考ではないとみなしてます。論理演算は思考ではない単なる計算だからです。
ちなみに、コンピューターという英語はチューリングの時代は計算する人という意味でしたが後に計算する機械に拡大され、今では機械のことを意味してます。
思考とは - 私の簡単な定義
経験、事実についての知識、科学的な法則(数学の定理のみでなく)についての知識を基礎として、ある現象について何らかの観点で善悪等の判定をするプロセス、問題解決の方法を見いだすプロセスなど。知識の性質には抽象度の強さで階層がありますし、プロセスには高次元から低次元の階層があります。知識とプロセスの階層をコンピューターのアルゴリズムおよびコンピューターが読み取るデータに、文字列として埋め込むことはできても、さらにまた、2種類の階層に関して総当たりで計算するアルゴリズムを作成することができるとしても、コンピューターの動作は人間だけが作成できるアルゴリズムの通りに計算するだけで「思考」はしません。論理計算で正しい回答が導かれる問題にのみ正しい回答を導くのであり、論理計算で回答不能な問題に解答することはできません。思考は言葉なくして不可能
愛、善、正義などの高度な抽象概念から、何事か達成するための手段としての有効性、ある物体が白か黒かなど、言葉の対象となる概念には階層があります。高次の抽象概念から提示の具体的概念までをコンピューターのアルゴリズムに記述したりデータ化することはできますが、所詮は文字列としてあるいは、諸概念相互関係についての論理計算の定式化しかできません。コンピューターのアルゴリズムとデータにどれほど詳細に言葉群の定義や言葉が示す概念の作用を記しても、コンピューターは言葉を使用することができるはずありません。思考の中味は単純な理論展開だけではない
数学の公理群が与えられたら、それから演繹して定理群が導かれます。しかし、公理群の正しさを公理体系の内部で証明することが不可能。
ゲーデルの不完全性定理によるこのことは証明されてます。
第一定理『数学の定理の中には、それを証明することも否定することもできないものが存在する』
第二定理『数学が無矛盾である限り、数学は自分自身の無矛盾性を証明することはできない』
前述のwebpageから引用します
``チューリング・マシンによって解決できる問題はアルゴリズムのある問題といい、解決できない問題はアルゴリズムのない問題という。アルゴリズムとは、簡単に言えば、解を求めるための手順である。チューリングはチューリング・マシンを使ってアルゴリズムのない問題、つまり、肯定も否定もできない問題が存在することを示した。それは不完全性定理の別の表現でもあった。もちろん、アルゴリズムのない問題は、人間の頭脳をもってしても解決できない。''
末尾の「解決できない」との表現はあくまでも、数学のごときことの話しです。
人間社会における諸問題は正しい回答が永遠にないことがほとんどです。そのような正しい回答が存在しない諸問題について、人間は毎日毎日考えて、より妥当な解決を模索してます。人々が見いだす問題Aについての解決方法は幾通りもあり、政治の場ではどれを仮採用するかについては、議論により、あるいは金力により決められます。仮採用された解決の結果についての評価もまた正しい解答はありえません。
人間には道徳・倫理が備わっている
人間社会において何事かが問題とされる尺度は倫理や道徳であることが極めて多いです。アルゴリズムによりつまり論理的に正しい解決が見つかる分野は、テクノロジーの世界のような分野に限られます。
倫理、正義などの高度な抽象概念の適用はアルゴリズムによっては原理的にできないと思います。人間には自由意志がそなわっている
人間の思いつきとか選択を脳内化学物質・電気信号の過程で説明できるような妄説は今でもありますが、複雑性の数学からしてもそのことは絶対に証明できません。
自由に考えているようで、実は偶然にそう考えているのだという主張は直感に全く反するのみか、考え方の基礎に愛、道徳などの高度な抽象概念とか理想があるわけです。自分の経済的利益のみからして思考すると過程しても、実に複雑なプロセスを経るのであり、経済的利益だけ考えることは難しく倫理的な危惧にもそれなりに影響されます。最終的に経済的利益と正義のどちらをどの程度優先させるかは、自由意志によると断定してよいと私は思います。少なくとも化学反応に還元することはできません。
コンピューターに自由意志があり得ないことは、ゲーデルの定理をもちだすまでもなく、コンピューターは人間が与えたアルゴリズムにより機械的に計算するのみであり、コンピューターは一切思考できないことからもわかります。コンピューターは与えられたアルゴリズムを自ら改善することが原理的にできない
第一に改善するという意志を持つことができません。意志がないのですから。
改善する対象とその目的を人間が定義して、新たなアルゴリズムを作成することは人間にのみできます。しかし、コンピューターをして、試行錯誤させ、最良の解決を一つ見いだすアルゴリズムを人間が作成することができるか? 否だと考えられます。理由は↓
例えばとして、因数分解を最小手順でする方法をコンピューターのアルゴリズムで見いだすようなプログラム作成について考えましょう。
i) 因数分解は四則演算のみでできますが、例えば 100 の素因数分解をするアルゴリズムは人間にしか作成できません。そもそも素数を2から順番に見付けるアルゴリズム作成は人間にしかできません。コンピューターは人間が作成したアルゴリズムで計算して正しい解答をすることのみしかできないのです。
ii) 素因数分解をより短時間でできる手順を見いだすアルゴリズムを人間が作成することなどできるはずないわけですが、それができると過程しても問題あり
コンピューターが素因数分解の公式候補を百億兆通り見いだしたとしても、一つ一つテストすることが原理的にできません。コンピューターのメモリ内に、仮想マシンを100個作成して、それぞれの仮想マシンでテストすることは、人間の命令なくしてできません。コンピューターが100の素因数分解候補のアルゴリズムを作成したとしても、コンピューター自身が仮想マシンを作成してそれぞれ起動することができるはずありません。
それができるとしても、100のアルゴリズムが正しいか否かをコンピューター自身が判定することは原理的に不可能であり、正しさは人間にしか判定できないでしょう。
以上の議論は不正確なところありますが、説得力はかなりあるのでは?
■結語
chatGPTなどのAIは与えられたプログラムを自己改変できない。従って、AIが自律的に進化するとの危惧は全く無い。AIとは云うが、決してそれは知能ではない。単なるアルゴリズムである。アルゴリズムは人間にしか作成できない。
コンピューターの進化は量的のみであり、つまり計算速度とメモリ容量の増大だけ。チューリング・マシンの原理はゲーデルの定理そのものであり、ゲーデルの定理は物理学の仮説と異なり、永遠に反証できない真である。だから、コンピューターが思考することはあり得ない、コンピューターに与えられたアルゴリズム自身がそのアルゴリズムを改変できないから。
AIがAGI(汎用知能)、ASI(超知能)に「進化」することは「ゲーデルの不完全性定理」からして不可能なのだ。
人間は書物を読んだり、模範となる人間の有様を見て、模範となる人物の物語を読んだりして、自らの有様を改変できる。意識がそれを可能とする。それまでの有様を反省する契機は感情である。理性の主人は感情であり、その逆はあり得ないと David Humeは言った。AIが感情を持つことはゲーデルの定理からしてあり得ない。
この記事が気に入ったらサポートをしてみませんか?