見出し画像

電話会議後BloombergがJensen Huangに直接インタビュー その会話全記録

ポイント
1)Blackwellに遅れが生じる可能性はありますか? No
2)ハイパースケーラー以外の利上げは? 拡大
3)ソブリンAIとは?  日本の実例を紹介
4)消費電力対策は? 水冷、エッジデバイス化
5)Blackwellのサプライチェーンは? No problem
6)Nvidiaがクラウドプロバイダーになる? No AI Foundryになる

「この特別版のBloomberg Technologyへようこそ。
世界中のテレビやラジオの視聴者の皆さん、今、アナリストコール直後のNVIDIAのCEO、Jensen Huangが私たちと一緒にいます。
Jensenさん、こんばんは、市場はBlackwellについてもっと詳しい情報を求めていたと思います。
特に、これは明らかに生産上の問題であり、Blackwellの基本的な設計問題ではないとしていますが、現実世界での展開は具体的にどのようなものになるのでしょうか?
その展開とそれに伴う収益に遅れが生じる可能性はありますか?」

「私が非常に明確に伝えたにもかかわらず、十分に伝わらなかったことがすぐに私を混乱させました。私たちはBlackwellの歩留まり機能を改善するためにマスク変更を行いましたが、その機能は素晴らしいです。
Blackwellのサンプルは世界中で出荷されており、稼働中のBlackwellシステムのツアーが行われています。Web上にはBlackwellシステムの写真がたくさんあります。量産も開始しており、第4四半期には出荷されます。
Blackwellの収益は数十億ドルに達し、そこからさらに拡大していきます。Blackwellの需要は非常に大きく、供給を上回っていますが、第4四半期から大量の供給を開始し、Q1、Q2、そして来年にかけて拡大していきます。来年も素晴らしい年になるでしょう。」

「Jensenさん、ハイパースケーラーやMeta以外での加速コンピューティングの需要はどうなっていますか?」

「ハイパースケーラーはデータセンタービジネス全体の約45%を占めていますが、私たちは現在、比較的多様化しています。
ハイパースケーラー、
インターネットサービスプロバイダー、
ソブリンAI、
産業界、
企業
などがあり、ハイパースケーラー以外が残りの55%を占めています。データセンター全体で使用されるアプリケーションは加速コンピューティングから始まります。加速コンピューティングは、生成AIなど、私たちが知っているモデルから、データベース処理、データの前処理や後処理、トランスコーディング、科学シミュレーション、コンピュータグラフィックス、画像処理など、あらゆることを行います。ですから、人々が加速コンピューティングを利用するアプリケーションはたくさんあり、その一つが生成AIです。」

「Jensenさん、ソブリンAIについて伺いたいのですが、以前お話ししましたが、この会計年度には低2桁の数十億ドルのソブリンAI売上があるとおっしゃっていました。それは特定の政府との取引を意味するのでしょうか?
もしそうであれば、どこの国ですか?」

「必ずしもそうではありません。地域のサービスプロバイダーが政府によって資金提供されている場合が多く、
例えば日本では、政府が数十億ドルの補助金を提供し、複数のインターネット企業や通信会社がAIインフラを構築できるようにしています。
インドにはソブリンAIの取り組みがあり、彼らもAIインフラを構築しています。
カナダ、英国、フランス、イタリア、シンガポール、マレーシアなど、
多くの国が地域のデータセンターを補助し、AIインフラを構築できるようにしています。彼らは、自国の知識やデジタルデータも国の資源であると認識しており、それを活用して国のデジタルインテリジェンスに変換するべきだと考えています。これがソブリンAIと呼ばれるものです。ほぼすべての国が最終的にはこれを認識し、AIインフラを構築することになるでしょう。」

「Jensenさん、リソースという言葉を使いましたが、それはエネルギーの要求を考えるときに思い浮かびます。次世代のモデルが非常に大きな計算需要を持つと話されましたが、エネルギーの需要はどのように増加し、NVIDIAがその点で持つ優位性は何でしょうか?」

「最も重要なことは、次世代の性能と効率を向上させることです。
Blackwellは同じ電力消費で、Hopperよりもはるかに高い性能を持っています。これがエネルギー効率です。
同じ量の電力でより高い性能を、または同じ性能でより少ない電力を実現します。これが一つ目です。
二つ目は液体冷却の使用です。私たちは空冷と液冷の両方をサポートしていますが、液冷の方がエネルギー効率がはるかに高いです。そのため、これらを組み合わせることで、大きな進歩が得られます。

しかし、重要なのは、AIはどこで学ぶかにこだわらないということです。
今後、AIは他の場所で訓練され、そのモデルが戻ってきて、人口の近くで使用されたり、PCやスマートフォンで動作するようになるでしょう。

大規模なモデルを訓練しますが、それを常に動作させる必要はありません。
もちろん、一部のプレミアムサービスや非常に高価値なAIには大規模なモデルを使用できますが、これらの大規模モデルが小規模モデルを訓練し、
その後小規模モデルがどこでも動作するようになる可能性が高いです。」

「Jensenさん、生成AI製品のモデルやGPUレベルでの需要が供給を上回っていることを明確に説明されました。特にBlackwellの場合、あなたの製品の供給動態について説明し、会計年度末や来年に向けて四半期ごとの改善を期待していますか?」

「私たちが成長しているという事実は、供給が改善していることを示唆しています。
私たちのサプライチェーンは非常に大規模で、世界最大のものの一つです。素晴らしいパートナーがいて、成長をサポートするために素晴らしい仕事をしてくれています。私たちは歴史上最も急成長しているテクノロジー企業の一つであり、それは非常に強い需要だけでなく、非常に強い供給もなければ実現できませんでした。Q3ではQ2よりも供給が増えると予想しており、Q4ではQ3よりも供給が増え、Q1ではQ4よりも供給が増えると予想しています。したがって、来年に向けて供給条件は今年よりも大幅に改善されると思います。」
「需要に関して言えば、Blackwellは大きな進歩です。いくつかのことが進行中です。まず、基盤モデルの作成者たち自体が成長しています。基盤モデルのサイズは数百億パラメータから数兆パラメータに成長しており、さらに多くの言語を学習しています。人間の言語だけでなく、画像、音、ビデオの言語、さらには3Dグラフィックスの言語も学習しています。
これらの言語を学習することで、見るものを理解し、要求されたものを生成することができるようになります。また、タンパク質、化学物質、物理学の言語も学習しており、流体や素粒子物理学の言語も学習しています。
これらのモデルはサイズが大きくなり、より多くのデータから学習し、モデル作成者の数も昨年より大幅に増えました。これらの要因から、基盤モデルの作成者自体が大きく成長しています。そして、生成AI市場はインターネットサービスメーカーを超えて多様化し、スタートアップや企業、さらには各国が参入しています。そのため、需要は大幅に増加しています。」

「Jensenさん、時間がなくて申し訳ありません。多くの質問が寄せられていますが、その中で最も多かったのは、NVIDIAとは何かという質問です。
あなたはシステムベンダーとしてNVIDIAを説明しましたが、多くの人がNVIDIA GPU Cloudについて質問しています。最後にお聞きしますが、
あなたは実際にクラウドコンピューティングプロバイダーになる計画がありますか?」

「いいえ。私たちのGPU Cloudは、各クラウド内に構築されたNVIDIA Cloudの最良バージョンになるように設計されています。
NVIDIA DGX CloudはGCP、Azure、AWS、OCIの内部に構築されています。私たちは彼らのクラウド内に自分たちのクラウドを構築し、AIインフラストラクチャやNVIDIAインフラストラクチャが可能な限りパフォーマンスが高く、優れた総所有コストを実現するようにしています。この戦略は非常にうまく機能しています。
そしてもちろん、私たちは自社でAIを大量に作成しているため、これを大量に使用しています。私たちのチップはAIなしでは設計できませんし、ソフトウェアもAIなしでは書けません。
ですから、私たちは自社で大量にDGX Cloudを使用しています。

AIファウンドリとしても使用しており、AIモデルを作成したい企業に専門知識を提供しています。
TSMCがチップのファウンドリであるように、私たちはAIのファウンドリです。このため、
私たちは三つの基本的な理由でこれを行っています。
一つ目は、すべてのクラウド内でNVIDIAの最良バージョンを持つためです。
二つ目は、私たち自身が大規模な消費者であるためです。
そして三つ目は、AIファウンドリを使用して他のすべての企業を支援するためです。」

「NVIDIAのCEO、Jensen Huangさん、決算発表後に時間を割いていただき、ありがとうございます。」

いいなと思ったら応援しよう!