![見出し画像](https://assets.st-note.com/production/uploads/images/158834705/rectangle_large_type_2_0e9f2938f9a29d70c132121a802d0c49.png?width=1200)
知性とは推論ではない
Appleの研究者が「今のLLMの推論は真の推論ではない」と研究結果を発表したとの話しはわりといろいろ言われてますが、私がそれ聞いて思ったのは
「え、なにをいまさら?」
なのです。
知性って
以下、書いてることは別にどこかで主張されているとか根拠やエビデンスがあるとかいう話しではないです。根拠はと聞かれたら「ソースは俺」としか言いようがないものです。その点はご理解ください。
人工知能議論周りでは、しばしば推論という言葉が使われます。非生成AIではチェスのチャンピオンに勝ったとかいうときにどの深さまで手を読んだとか推論の深さが議論になります。
私はそもそもの話しとして、知性と推論は同じレベルで語られる語ではないと思ってます。
知性とは生命維持/危機回避のための将来予測方法の総称
だと思っています。将来予測のための手法の一つが推論です。
極端な話し、未来を見ることが出来れば推論能力など不要です。
生命/生存維持のために役立てば、しきたりも村の掟も知性です。
実際には未来を見るとか絵物語ですから、現在の状況を把握し推論しなければ将来予測が出来ません。ですから推論は重要な知性の一つです。
今起きている現象が今までみたことのない状況であれば、現状を把握して合理的思考をして推論し将来予測しなければなりませんが、今起きている現象が以前に多数回起きているもので今の状況がそのときと同じなら、そのときの結果が今回も起きることが期待されます。ですのでそのときの結果は将来予測として使えます。
村の掟が今までの多数回の行動を集約したよい方向が期待される選択であるならば、村の掟は有用な将来予測の活用となります。しかも推論という重い計算を必要としません。
推論は知性の手法の一つである。
過去集約経験の利用は知性の手法の一つである。
と考えています。
では、なんで人工知能と言い出すと皆、推論と言い出すのでしょうか。
昔は「推論=AI」だった
自分が学生時代の古い人工知能本はいくつか持っていますが、だいだい「ゲームの対戦相手をした」「パズルを解いた」「人と会話をした(チャットボット)」という話しばかりです。
現状から起きうる将来の選択肢を深く探索して最適な現状解を選択する というのがその頃のAIであり、その推論という方法が主流だったのです。
その時代にもニューロネットワークは研究されており、そちらは概ね「文字を識別する」という方向でした。先ほどの分類で言えばニューロネットワークは過去集約知識の利用の方に含まれるでしょう。
でも過去集約知識の利用はその時代では大きな困難があります。
紙数ページくらいの知識では集約のしようがない
1980年代のコンピュータはパソコンでKBくらいのメモリ、メインフレームでもMBくらいのサイズです。処理速度も全然違いますが、なにより集約するメモリがありません。紙数ページ分くらいのメモリです。
そのような環境では「知識を集約したら効果が出る機構」なんてものは考えつくことすら困難な状態です。文字を認識するくらいがせいぜいだったのです。
それに対して選択肢を探索するというプログラム的に書ける推論は現実的な試作が数KBでも書けます。
人工知能は推論機械である とされてしまったのはこういう面もあります。
(ちなみに集約知識だけでゲームをするという例がない訳ではないです。学生時代に読んだ別冊サイエンスのマーチンガードナー著の数学ゲームに「マッチ箱思考機械」という記事があり、これは穴が開くほど読んだ記憶があります)
Appleが今「LLMは真の推論はしていない」と発表した話しは、私もそう考えているし、確かにもう少し推論の仕組みが改良されるべきとは思うけど、「そんなことわかっていたじゃん。真の推論ってどんなレベルを考えてるの」と思ってしまうのです。
集約知識と推論
推論が知性のすべてだったら、第五世代コンピュータのときに初期のAIが出ていてもおかしくはないです。第五世代コンピュータのときに後々有用だったアウトプットというと私は日本語のシソーラスデータくらいしか思いつかないです。
しかしながら、過去集約知識側もそれだけでもAIにはならなかったです。過去集約知識だけでよいのならGoogle検索はそのままAIになるはずですがそうともならなかった。
LLMの発明で未だに自分は驚いている(かつ消化不良な)話は「膨大な知識をうまく集約したら、そこそこの推論能力が出てきた」という話です。
LLMがそこそこ現実的な問題も処理出来るということが、現実的なAIが作られるためには、過去集約した知識も必要だし推論も必要だったということなのだと思います。
過去に集約知識と推論の両方を持つシステムはなかった訳ではないです。
エキスパートシステムは推論システムではあるが、専門家のルールという集約知識を多量に読ませて、それについて推論させて、業務判定を行うというシステムです。
過去知識に推論に応用し、推論を現実問題の解決に持ち込もうとしたというシステムです。 ただ多くが当時の機能ではデータ量が全然足りないし、何より推論ルールの保守が絶望的に困難だったものです。
「集約ルールをうまく作ったら弱い推論能力が自動でついた。入力する経験情報もそれほど意識した編纂をせずに平文をまとめて突っ込むだけで集約されて、まとめていったら推論までした」というLLMは話題を見たときにまったく信じられなかったし、ChatGPTやローカルLLMを触りまくった今でもどこかで騙されているのではないかと思うことがあります。
でも説明通りであればLLMは「集約知識に弱い推論が統合された能力」を持ち、つまり推論ルールの保守がいらなくなった。あとはCPUとメモリのスケールアップだけです。
LLMをスケールアップしていけば推論能力が上がり続けるのか、それとも全然別の仕組みが必要なのかは現在でも議論中の話題だと思います。
私もそこはわからないのですが、それとは別に「推論能力を深い推論にしていけば知性が上がるのか」については私は懐疑的です。いくつか疑問があります(注1)。
ただそういう状況でApple技術者が「LLMは真の推論はしていない」と言ったのが何を指しているのかよくわからない。。
皆でサンドウィッチを作って、サンドイッチパーティを開いているところに、遅れてきて
「このサンドイッチパーティはすばらしい。でもおにぎりがないのは不完全だね」
「え、なにをいまさら?」
としか言いようがないのです。
確かにサンドイッチパーティは将来ランチバイキングになれば望ましいので「おにぎりがないことを現状確認します」という意味なのかもしれません。自分も推論能力が現状足りないと思っていますし、現状確認は科学的スタンスと思います。
ただそれを外野が見て「LLMは真の推論をしていない。だからLLMは欠陥品だ」みたいと言われると「推論ってそんなに万能なものじゃないよ。推論で何をしたいの?」とか思ってしまうのです。
(注1: 書いていたときに、ここに深い推論が本当に必要なのか、深い推論はLLMが改良されるような話になるのか、たいして役立たないのではないか、みたいな疑問と仮説をダラダラ書いたのですが、主旨がずれていくのと未検証自説仮説が長々出てきたのでバッサリ切りました。。まとまってない他人の仮説など聞いても面白くないですし。。)