NVIDIA の優位は「フライホイール理論」
私はCPUやGPUに関して、単に計算スピードが速いメーカーが優れていると誤認していました。しかし、最近の技術進化や実際にコンピューティングに携わった経験を通じて、その認識がいかに表面的だったかを実感しています。
特に、ネットワーキングやソフトウェアの進化を考えると、NVIDIAの競争優位性が単なるGPUスピード競争を超えて、システム全体を包括的に最適化していることが分かってきました。
昔は、「より優れたチップを設計すれば、計算性能が向上し、それに伴いフリップフロップやビット数も増える」という単純な発想に捉われていました。
機械学習やデータサイエンスの分野に実際に関わるようになると、シンプルなスピードだけでは測れない重要な要素があることに気づかされました。
今や、コンピューティングの最前線にいるのは、単なる計算スピードだけでなく、データパイプライン全体をいかに最適化できるかという点にあります。
私が特に感銘を受けたのは、機械学習において「フライホイール」という考え方が重要であることです。このフライホイールをいかに活用し、データサイエンティストや研究者が効率よく生産性を上げられるかが、今後の競争力を決める鍵になります。
このように、自分の誤認を振り返り、より深く技術の本質を理解することで、私はデータのキュレーションや機械学習のプロセスが、ただの計算能力以上に重要であると強く感じています。
ジェンセン・ファンは、NVIDIAのビジネスを「フライホイール」という概念を使って説明しています。フライホイールとは、機械学習のデータパイプライン全体を指しており、このサイクルを加速させることでAIの学習と性能が飛躍的に向上するというものです。
彼は、AIシステムの進化は単に高速なチップを作ることではなく、データの生成、処理、トレーニング、推論といったプロセス全体を改善することによってのみ達成できると強調しています。
つまり、AIの成長は全ての要素が相互に影響し合いながら進行するため、各ステップを加速させることが重要です。
これがNVIDIAの技術スタック全体にわたる戦略であり、GPUやソフトウェアの統合、データの効率的な処理に注力することでビジネスを強化しているのです。
以下はジェンセン。ファンの言葉です。
ネットワーキングやソフトウェアの強化が近年進んできましたよね。
NVIDIAの堀、つまり競争上の優位性が今の方が3~4年前よりも大きいかどうか、どう思いますか?
コンピューティングがどのように変化したかを認識してくれているのはありがたいですね。実際、多くの人がそう考えたし、今でもそう思っている人は多いんですが、「より優れたチップを設計すれば、フロップ数が増えて、フリップフロップやビット数も増えて……」という話なんですよね。
キーノートスライドを見ると、フリップフロップや棒グラフなんかが出てきて、まあそれもいいでしょう。もちろん、パワーは重要です。そういったことは基本的に重要なんです。でも残念ながら、それは古い考え方です。
それは、ソフトウェアがWindows上で動く静的なアプリケーションだった時代の考え方なんです。
つまり、システムを改善する最良の方法は、単により高速なチップを作ることでした。
しかし、我々は機械学習が人間のプログラミングではないことに気づいたんです。機械学習は、単にソフトウェアにとどまるものではなく、データのパイプライン全体に関わってくるんです。
実際、機械学習の重要な要素は、その「フライホイール」の部分なんです。では、どうやってこのフライホイールを実現し、データサイエンティストや研究者がこのフライホイールで生産性を発揮できるようにするか?
このフライホイールは本当に最初の段階から始まるんですよ。多くの人が気づいていませんが、AIにデータをキュレートさせてAIを教える必要があるんです。
そしてそのAI自体も非常に複雑です。そのAI自体が進化しているとき、そのスピードも加速しているのか?そういうことですね。
我々が競争優位性について考える時、それはすべてのシステムが組み合わさったものだということです。
まさにそうです。フライホイールについての考え方が大切です。このフライホイール全体をどのように加速させるのかを考え、データ処理を効率化するためのコンピューティングシステムをどのように設計するかが重要です。
トレーニングはその一部に過ぎません。単なる一歩にすぎないんです。
ですから、最初に考えるべきことは「どうやってExcelを速くするか」「どうやってDoomを速くするか」といったことではありません。
そういったのは昔の話です。今は「どうやってこのフライホイールを速くするか」を考えなければなりません。
このフライホイールには多くのステップが含まれています。機械学習には簡単なことは何もありません。
OpenAIやX、DeepMindのGeminiチームがやっていることも、簡単ではありません。
だからこそ、私たちはこう考えたんです。「これが本当に考えるべき全体のプロセスなんだ」と。すべてのステップを加速させるシステムを作りたいんです。
そうすることで初めて、本当にサイクルタイムを大幅に改善できるんです。
そしてこのフライホイール、この学習速度の加速こそが、最終的に指数関数的な進歩を引き起こす要因になるんです。
私が言いたいのは、企業の視点、つまり「何を本当にやっているのか」という視点が、製品に反映されるということです。私はずっとこのフライホイール全体について話してきました。
私たちはすべてを加速させるんです。
今、多くの人々が注目しているのは物理的なAIやビデオ処理ですよね。フロントエンドで、毎秒テラバイト単位のデータがシステムに流れ込んでくるところを想像してみてください。
それをインジェストしてトレーニングの準備をするためのパイプラインの例を教えてください。その全体を加速することができるんです。
Nvidiaは10万台のGPUを備えた世界最速のスーパーコンピュータをわずか19日で構築し、計画と展開における驚異的な効率を示しました。AI技術の進化速度が劇的に加速しており、計算コストが過去10年間で10万分の1にまで低下しています。人間のプログラミングから機械学習への移行により、コンピューティングシステムの開発方法が根本的に変わり、AI能力の急速な進展が可能になっています。
NvidiaはGPU、CPU、ネットワーキング、ソフトウェアを統合したコンピューティングスタックを構築し、単なるハードウェアの改良にとどまらない、より効率的で強力なAIアプリケーションを実現しています。
NVIDIAのBlackwellアーキテクチャに対する圧倒的な需要について、ジェンセン・フアンは「非常識だ」と述べており、AIアプリケーションに対する高度なコンピューティングへの依存がますます高まっていることを強調しています。リソースの要求を拒否せざるを得ないという決定に伴う感情的な側面にも触れ、NVIDIAがすべての需要を満たすことができないコンピュートの不足を認めています。
Ciscoとの比較について、批評家たちは現在のテック業界の状況を2000年のCiscoのブームとバストに例えていますが、フアンは現在のAI革命が根本的に異なり、一時的な過剰投資ではないと反論しています。フアンは、NVIDIAの予想収益が2023年に260億ドルから600億ドルに跳ね上がったことについて、市場アナリストがAIの変革力を認識できなかったことを指摘しています。
また、コンピューティングが大きな変革を迎えており、従来の手作業で設計されたプロセスから機械学習ベースのプロセスへとほぼすべてのソフトウェアが移行していると述べています。
さらに、既存のコンピューティングインフラの近代化が必要であり、その価値は約1兆ドルに上るとし、GPUベースの技術に置き換えることに焦点を当てています。
ソフトウェア開発の未来についても言及し、今後は従来のコーディングではなく、プロンプトを通じてAIシステムをプログラムする時代が来るとし、それによりソフトウェア開発がよりアクセスしやすく直感的になるとしています。さらに、フアンは「AI工場」という概念を紹介し、これはデジタル従業員やエージェントを継続的に運用するためのインフラストラクチャを指し、新たなコンピューティング能力の層を示唆しています。
AIへの資本投資についても、フアンは企業がAIに多額の投資を行うべきだと主張しており、既存の古い技術への資本支出を現代的なAIインフラへ転換する必要があると述べています。将来の不確実性と可能性についても触れ、AI主導のソリューション市場は数兆ドル規模に達する可能性があり、インフラの近代化と新たに台頭するAIワークロードの調整が重要であると強調しています。
クラウドとエッジのシームレスな統合についても、フアンは、Vision Language Model (VLM) がクラウドでもエッジでも同様に機能することを強調しており、これは現代のコンピューティングにおいて重要なアーキテクチャ互換性を示しています。アーキテクチャの互換性が、さまざまなプラットフォーム間での容易な移行を可能にするため、広範な採用に不可欠であるとしています。
推論性能への注力についても触れ、AIとのインタラクションの応答性を高めるためには、最初のトークンまでの時間を最適化することが重要だと述べており、これを達成するためには大規模な帯域幅と計算能力が必要であると指摘しています。また、パフォーマンスを向上させるために開発されたMVLinkのような革新的技術についても言及しています。