
特異点への唯一の真のボトルネック:人間の愚かさ vs 避けられない指数関数的進歩
7,333 文字
この質問は実際に私のDiscordとPatreonコミュニティから来たものです。Chadさん、この質問をありがとう。質問内容は「現在から特異点に至るまでの間に見られる実際のボトルネックは何か」というものでした。それでは早速本題に入りましょう。
簡単におさらいすると、ムーアの法則は約120年間効力を持ち続けています。トランジスタ時代の前には真空管の時代があり、その前には機械式リレーまたは電気機械式リレーの時代があり、さらにその前には純粋な機械式計算の時代がありました。
歴史の大きな流れを見ると、12の10年間にわたって、計算コストや計算機の効率性において信頼性の高い予測可能な改善が続いてきました。そしてその間に多くの桁数で向上し、減速の兆候はまったく見られません。これが、レイ・カーツワイルや私のような人々が「このトレンドが続けば、信頼性の高い予測可能な未来に向かっている」と言う際に依拠する主な根拠です。
では、現在からそこまでの間にどのような制約が存在するか見てみましょう。まず念頭に置いておく必要があるのは、全体のフレーミングロジックとなる「制約の法則」または「制約理論」です。制約理論は基本的に、システム内には常に一つの主要なボトルネックまたは制約、つまりシステム全体を遅くする摩擦の源が存在すると言っています。
その結果として、ボトルネック以外の部分でシステムに加えられた改善や最適化は、実質的にそれほど大きな効果を持ちません。つまり、常に一つの主要な要素がシステム全体を遅くしているということです。そして第二の結果として、一つのボトルネックを取り除いても、次のボトルネックが現れるということです。
以前インフラエンジニアだった私にとって、これは日常でした。サーバーのRAM容量、CPU数、データベースのサイズ、ネットワークスループットなどのボトルネックを調査していました。複雑なシステムにおいては、特定の仕事を行うための制約が何か、どれだけのデータを移動できるか、どれだけの処理ができるか、といった基本的な要素があります。
そして興味深いネットワーク効果が生まれます。たとえば、メモリが不足しているデータベースサーバーやクエリのキャッシュサイズが不十分な場合、クエリの実行に指数関数的に長い時間がかかります。データベースをメモリに読み込むのではなく、千倍程度遅いストレージにスワップする必要があるからです。その結果、1秒かかるはずのクエリが1000秒かかり、他のすべてを遅くするのです。交通渋滞のようなものです。
制約の法則は交通渋滞を考えるとわかりやすいでしょう。1車線が事故や工事で使えなくなると、時速70マイルで走っていたのが時速5マイルになってしまいます。これが現実世界における制約理論の例です。
まず第一に、シリコンが主要なボトルネックであるように思われます。つまりシリコンチップのことです。これは永続的なボトルネックではなく、改善に時間がかかるという意味でのボトルネックです。ここで注目すべきは、パーセプトロンからのニューラルネットワークの概念、つまりジェフリー・ヒントンやヤン・ルカンが有名になった業績は、80年代に遡ります。ニューラルネットワークは、見ている種類によっては40〜50年前から存在していました。しかし、大規模に実行できるほどコンピュータが十分に良くなるまでは、AGIに近づくことはなかったのです。
これを解釈する一つの方法は、シリコン技術、つまりチップという基本的なハードウェアの制限が主要なボトルネックであり、それが解決すれば、AGIやスーパーインテリジェンスなどへ至ることは避けられないということです。これが現実が示していることであり、レイ・カーツワイルが予測したことでもあります。
しかし、AIに関しては他の潜在的な制約もまだ存在するでしょう。ニューラルネットワーク、特に人工ニューラルネットワークは決して新しいものではなく、コンピュータが大規模なニューラルネットワークを実行できるほど強力になるとすぐに、誰かがより大きなニューラルネットワークを実行し、新しい方法を発見したのです。新しいツール、新しい能力を手に入れると、それを実験する新しい方法を探求するのが自然なのです。
次はデータです。昨年、私たちは皆「データの壁」を心配していました。アンドレイ・カーパシーなど多くの人が「インターネットは一つしかなく、私たちは文字通りすべての人間のデータを使い果たした。残りのほとんどはノイズが多く質が低い」と言っていました。MrBeastの動画をどれだけ訓練しても、それが核融合の発明などの一般化には役立たないのです。すべてのMrBeastの動画を百万回見ても、老化を解決することなどには近づきません。すべてのデータが等しく作られているわけではないのです。
しかし、セルフプレイを使用するさまざまな方法を示す論文が多数出てきました。これは基本的に純粋な強化学習メカニズムであり、より多くのデータで訓練する代わりに、すでにブートストラップされたモデル、つまりすでに知性を持ち、自己修正やエラー検出が一定レベルで可能なモデルを使用します。アルファ碁が超人レベルで囲碁をプレイすることを学んだのと同じように、人間と対戦したりデータを持っていたりしなかった - ただ自分自身と対戦したのです。
今わかっているのは、数学、言語、他のすべてのものでも同じことができるということです。基本的に、質の低い野生のインターネットデータを取り、蒸留やセルフプレイ、その他の強化学習アルゴリズムを通じて繰り返し蒸留しているのです。ですから、データは実際にはボトルネックではないのです。それがボトルネックになると思っていましたが、このデータの壁は比較的早く突破されました。
しかし、それは他の制限が見つからないという意味ではありません。人々が心配しているのは「AIは本当にその訓練分布を超えて一般化することができるのか」ということです。おそらく今年末までには、これらのAIモデルが実際に訓練分布を超えて一般化し始めていることを示す論文が出てくるでしょう。実際、Claude 3.5や3.6などでも、長いコンテキストの問題では何を探せばいいのかわかっていれば、それが訓練分布を超えて一般化し、実際に知っていること以外の真実を三角測量したり、真実かもしれないことを推測したりしているのが見えます。
私自身、慢性疾患に対処するために長い対話をしていて、「あなたが言っていることのうち、訓練データから高い確信度を持って知っている事実はどれで、原理原則に基づいて再構成して真実であるはずだと言っているものはどれか」と考えてきました。これらのモデルはすでに第一原理からの推論が可能であり、それは大きな意味を持ちます。
続いて、データはたとえすべての人間のデータを消費しても、永続的なボトルネックになる可能性は低いと言いたいです。なぜなら、生成できるシンボリックデータは機能的に無限だからです。Chat GPT-1に「何種類の小説を書くことができるか」を計算してもらい、すべての推論モデルがこれを行えますが、結果は約10の50,000乗になりました。参考までに、宇宙には10の80乗の原子しかありません。
シンボリック推論、意味的推論、数学的推論があれば、機能的に無限のデータを生成できます。テキストや数学の無限の組み合わせがすべてを表現する可能性があります。もちろん、その大部分は役に立たないかもしれませんが、麦から籾殻を分離するだけです。それが「Chain of Thought」推論で彼らが行ったことです。「たくさん生成して、最善のものを選ぶ」というアプローチです。ノイズの中から信号を、カオスの中からパターンを見つけることができます。単純な総当たり方式でもできますが、おそらくもっと良い方法も見つかるでしょう。
データがボトルネックではないという話を十分にしたので、次に進みましょう。次はエネルギーです。「AIは多くのエネルギーを使い、環境に悪い」と心配する人もいますが、それを裏付ける証拠はあまりありません。GPUを使用し、GPUが多くのエネルギーを消費するという原理原則から推論できますが、同時に暗号通貨はAIよりもはるかに多くのエネルギーを使用しています。
さらに、シリコンウェハーやシリコンチップのエネルギー使用量は密度に反比例します。つまり、トランジスタ密度が上がり、チップの効率が良くなるにつれて、計算あたりのエネルギー使用量は指数関数的に減少します。計算能力が指数関数的に上がる一方で、エネルギーコストは指数関数的に下がっているのです。長期的には、エネルギーはシリコン自体以上のボトルネックではありません。
さらに、ここには好循環があります。AIは、特に材料科学で向上するにつれて、核融合やソーラー、そしてバイオなどの再生可能エネルギーの開発を支援し始めています。マーカス・アウレリウスが言ったように「障害物を道としよう」。AIはエネルギーの超豊富さを創出するでしょう。もし他に理由がなくても、より多くの電力を必要とすることで市場が「より多くの電力を生産する必要がある。化石燃料が必ずしも最良の方法ではない。太陽光発電や原子力、核融合をもっと構築しよう」と言うかもしれません。
NASAが宇宙競争でやったように、多くのインスピレーションとイノベーションを引き起こす可能性があります。月に行くために必要な技術が存在しないので、その技術を発明しましょう。今回の月面着陸計画は「スーパーインテリジェンスを構築しよう」というもので、そこに到達するためにはまだ存在しない技術があるので、それらの技術を発明しましょう。
エネルギーは永続的なボトルネックでは確実になく、実際には逆かもしれません。人工知能を解決しようとする努力の中で、エネルギー問題を解決し、それが下流の問題の多くを解決するかもしれません。水不足を例にとると、エネルギーが超豊富にあれば、必要な量の水を淡水化でき、それが農業を解決し、他のさまざまな問題を解決します。これは水だけを見た場合です。エネルギーが超豊富にあれば、大気から二酸化炭素を除去することもできます。エネルギーの超豊富さが解決する問題の数は驚異的です。
次に、私のSubstack、Twitter、Patreonなどのプラグです。すべて私のLinkTreeで利用可能で、近々LinkTreeに新しいものを追加する予定です。いくつかの本に取り組んでいます。リンクは説明欄にあります。
次はアルゴリズムです。基本的にここでの議論は、深層ニューラルネットワークが必要か、それとも別のものが必要かというものです。一部の人々はまだニューロシンボリックが必要だと言いますが、AIはすでにニューロシンボリックだと思います。なぜなら、シンボルであるトークンで動作するからです。技術的には「それが彼らの言っていることではない」と分かっていますが、ポイントは深層ニューラルネットワーク、大規模言語モデルがシンボリックに動作し、ニューラルネットワークであり、あらゆる領域に一般化されているということです。
経験則として、データで表現できるものは、ニューラルネットワークが理解できます。深層ニューラルネットワークが一般的知能やスーパーインテリジェンスに到達するために必要だが十分ではないという主張は、消えつつあるようです。テキスト、数学、ビデオ、音声を扱い、ロボットを制御できることを考えると、最新のロボットモデルではロボット全体を実行するためのモノリシックなドロイド脳をエンドツーエンドで訓練しています。
私はそれが可能だとは思わなかったでしょう。移動のためのモデル、発話のためのモデル、視覚のためのモデルなど、別々のモデルの方が簡単でより良いと思っていたでしょう。しかし彼らは「いや、すべてを1つのモデルに統合している」と言っています。これは1つの企業だけでなく、多くの企業がやっています。FigureやNVIDIAなどです。
「ネットワークをスケールアップし、より大きく深くし、より多くのパラメータとアルゴリズムのトリックを追加する」というパラダイムは、生成AIやディフュージョンモデルにおいて十分に一般化しているようです。現在扱っている主な深層ニューラルネットワークは、次のトークン予測とディフュージョンモデルの2つです。これらが十分に一般化し、このパラダイムはスーパーインテリジェンスまで到達するために必要なだけでなく、十分でもあるように思えます。
たとえそれがスーパーインテリジェンスまでの道のりをすべて網羅しなくても、私が実施したいくつかの調査では、視聴者の大多数は現在のパラダイムが少なくともAGIまでの道のりのほとんど、もしくはAGIを超えて、そこからスーパーインテリジェンスへの次のパラダイムを助けると信じています。
アルゴリズムはボトルネックではないようです。実際のボトルネックの一つはお金です。その理由は非常に単純で、グラフを見ると、次のフロンティアモデルは指数関数的に多くのコストがかかります。このトレンドは逆転していません。人力の量、エネルギー量、計算量など、次世代モデルのトレーニングに投入されるすべてのリソース、資本と労働力の総量に関係しています。
このトレンドが逆転していれば、お金はおそらくボトルネックではないと言えるでしょう。しかし、このトレンドがさらに2、3のフロンティアモデルで続けば、次のフロンティアモデルを訓練するためにリソースをプールする必要があるかもしれません。それは実際に強制機能になるかもしれません。
MicrosoftやGoogle、Alibaba、そしてヨーロッパ全体が、スーパーインテリジェンスを発明するために種として集まる必要がある時が来るとしたらどうでしょう?これらのものをトレーニングするのがエネルギー、シリコン、労働力の面で非常に高価になり、市場ではできなくなるとしたらどうでしょう?実際に私たち自身を超えて、みんなでスーパーインテリジェンスのトレーニングにコミットする必要があるとしたらどうでしょう?
ブルース・ウィリス主演の映画「アルマゲドン」のように、惑星全体が集まってブルース・ウィリスを送り出し、小惑星を爆破して全員が生き残れるようにするような状況です。もしスーパーインテリジェンスに到達したいなら、全員がリソースをプールする必要があるという逆のシナリオかもしれません。
トレンドが続けば、これは私たちが直面するかもしれない未来です。その場合、AIは実際にグローバルな紛争を解決するかもしれません。いくつかの効率性を見つけるかもしれませんが、依然として収穫逓減の可能性もあります。しかし現在のデータは、シリコン自体以外では、お金が最大のボトルネックである可能性を示しています。もちろん、シリコンの問題はお金で時間をかけて解決できます。時間も制約です。
次は人間です。基本的に天才の不足です。世界にはイリヤ・サツキバーやノーム・ブラウンのような人は限られています。このことについて非常に詳しく、彼らの洞察が本当に違いを生み出すようなレベルの天才は限られています。
しかし、これにはいくつかの緩和策があります。イリヤ・サツキバーは限られていますが、オープンソースの貢献があります。多くのクローズドソースの研究が行われていますが、これらの企業の多くはまだ研究の一部を公開しています。全部ではありませんが。
また、非競争契約はカリフォルニアでは法的に認められていないため、これらの企業には回転ドアがあります。カリフォルニアは多くの研究が行われている場所です。ある人がDeepMindに行き、多くのことを学び、次にOpenAIに行き、多くのことを学び、そして別の場所に行って多くのことを学ぶというように、オープンソースがなくても交差受粉が起こっています。世界にとってはオープンソースの方が良いと思いますが、中国は研究を発表し、アメリカも発表し、ヨーロッパもいくつか発表していますが、主にアメリカと中国です。
ただ、人間の天才の制限は実際には比較的短期的な制約だと気づきました。おそらく今年後半か来年初めには、AIモデルはほとんどの研究者よりも優れた研究者になるでしょう。つまり、数千人または1万人の非常に優れたAI研究者ではなく、機能的に100万人または10億人の高品質なAI研究者が世界中にいることになり、時間が経つにつれてそれはどんどん良くなります。
ベンチマークを見ると、サム・アルトマンが「OpenAIは世界のトップ50のコーダーを持っており、年末までに世界最高のコーダーを持つことを期待している」と言っているのを適用すると、世界最高の数学者、世界最高のコーダーということになります。AIとは何でしょうか?数学とコードです。もしAIモデルが世界で最も優れたAIと数学のコーダー、または数学で最も優れているなら、人間の天才はもはやボトルネックではなくなります。これは一時的な制約であり、来年の今頃には解消されると思います。
最後に、最大のボトルネック、本当に最大のボトルネックは私たち自身の愚かさです。私たちは計算可能な物理的限界からも、可能な理論的・数学的限界からもはるかに遠い所にいます。恐怖、愚かさ、暴力が実際に最大のボトルネックです。
規制の取り込みや規制の摩擦、有権者層に対してウォークぶりをアピールしようとする政治家たち、恐怖を煽る終末予言、あるいは単純な人間の紛争、戦争好きであることなど、これらが本当に特異点との間にある最大の障壁です。
メイングラフに戻ってみれば、減速している証拠はありません。計算効率は右肩上がりで続くでしょう。私たちを止められるのは私たち自身だけです。私たちは自分自身の最悪の敵なのです。
ご視聴ありがとう。乾杯!