「SoftBank World 2024 孫 正義 特別講演 超知性が10年以内に実現する」の感想
はじめに
YouTubeチャンネル「ソフトバンク公式 ビジネスチャンネル」で公開されている動画「SoftBank World 2024 孫 正義 特別講演 超知性が10年以内に実現する」が興味深かったので、感想を書きたいと思います。
感想
人間と同等の知能とされるAGI「Artificial General Intelligence」に対して、1万倍ぐらい超える知性をASI「Artificial Super Intelligence」として孫さんが定義したものだそうです。
昨年は、金魚の脳を例に、人間と金魚の知能差が人間とASIの差になるだろうと、さらにそれが20年以内に起こるだろうと話されていたはずです。その予想が10年以内に早まったという事ですね。
孫さんの話では、我々人間のシナプスの数に対して、最近のAIは数兆個であり、各AI世界企業はさらにモデル規模拡大の争いをしているという事です。
それに対して日本企業は、日本的な小さなモデルで高効率を目指すという「(予算がない)言い訳」をしていると批判されていました。規模こそがASIに至る道であるという話です。つまり力(電力&GPU)こそパワーです。人間の脳細胞は増えないが、AIはいくらでも増やせるという考えのようです。
しかし筆者は孫さんと異なる予想です。人類のシナプスが増えない理由は、おそらく生物を含めたニューラルネットワークの数理モデルが、規模として到達できる知性の上限なんだろうと思います。脳細胞を増やしても、思考の調和を保てず精神を病んだりするので、その結果、生存競争に勝てずに20万年間今の脳容量を維持しているのだと思います。物理でも化学でもスケーリングには上限があるものです。
おそらく、1000人の脳のシナプスを直接繋いだ合成脳を作ったとしても、数人の人間のチームに敗北すると思います。似たような考えを持つ人は多いのではないでしょうか?アニメやSFでも、個を超えて精神を一体化したラスボスは必ず敗北するというストーリーが多いものです。(ただの人の恐怖や願望なのかもしれませんが)
現在の画像生成AIでも似たような事が言えます。異なるニューラルネットワークを単純につないでも意味はありません。むしろ多くの場合性能が悪化します。インプット・アウトプット等に一度収斂させて別モデルへ繋ぐ方が、不要なノイズを低減できるので良い結果を得られるわけです。つまり、巨大な一つの脳よりも、シナプスで繋がず機能別の小さな脳がそれぞれ連携する方が、最終的に到達できる知能の上限をより高くできるのではと予想しています。
一方で、その数理モデルとしての規模の上限はまだまだ先でしょうし、10年程度のオーダーで、人と見分けがつかなくなるAGIに関しては、なんとなく実現するかもと考えています。
ChatGPTがついに思考力を手に入れたとo1モデルを例に話されていました。その核となるのがCoTであり、三段論法のようなやり方を100段階するという事です。
筆者もローカルモデルを使って「Mixture of Agents」や「Monte Carlo Tree Search」を行うと性能が上がる事を感覚的に確認する事ができました。
ローカルで行う場合、探索木を2層行うだけでも思考時間は十倍以上になります。100段階なんて気が遠くなりますね。探索木のような増え方はせず層ごとに並列計算できるとしても、電気代=思考力の時代が見えてきます。10年後のAGIの月額料金が数百万、数千万円と言われても驚きません。
一方で、CoT手法が性能を上げるという事実は、(1つの大きな脳よりも)小さな脳を浅く複数繋げた方が良いという事の証明にもなります。一度トークンや言葉に変換して「検討」するわけです。人で言えば、チームを作って民主的に言葉で議論するわけですから。
このあたりから、突然現実的でソフトバンクの商業的な話に入るのでスキップします。(ARM技術を利用したAtoAの話)
やはり規模を上げ過ぎたAIは、どんなに工夫や防御層を重ねても、意味のある超知性(ASI)は得られず、某サイコブレイクのような悪夢しか生まないような気がします。
実際、規模を大きくして知能を上げたはずの画像生成AIのStable Diffusion 3が、草原に横たわる人物を悪夢の姿に変えてしまったように、しばらくはどの分野も、パラメータ規模を上げる改良が難航するのではと思います。動画生成もまだまだ悪夢そのものです。
それでも、近未来に人間の能力を超える準AGIが出現する事はほぼ間違いないでしょうから、楽しみである事の反面、資本家だけが月々数千万円でAGIを雇えるという状況にはなってほしくないものです。
この記事が気に入ったらサポートをしてみませんか?