エヌビディア(NVDA)Q2 2025 カンファレンスコール和訳
決算概要
オペレーター
こんにちは。オペレーターのアビーと申します。エヌビディアの第2四半期決算説明会にようこそお越しくださいました。スチュワート・ステッカーさん、会議を始めてください。
スチュワート・ステッカー
ありがとうございます。皆さん、こんにちは。エヌビディアの 2025 年度第 2 四半期のカンファレンス・コールへようこそ。本日はエヌビディアから、社長兼最高経営責任者のジェンセン・フアン、取締役副社長兼最高財務責任者のコレット・クレスが出席しております。本日の電話会議は、エヌビディアの投資家向けウェブサイトにてライブ中継されます。このウェブキャストは、2025会計年度第3四半期の財務結果についての電話会議まで再生可能です。本日の電話会議の内容はエヌビディアの財産です。事前の書面による同意なしに複製または転写することはできません。
本通話の中で、当社は現在の予想に基づく将来の見通しに関する記述を行う場合があります。これらは多くのリスク、重大なリスクおよび不確実性の影響を受け、当社の実際の結果は大きく異なる可能性があります。
当社の将来の業績および事業に影響を与えうる要因については、本日の決算発表、当社の最新のForm 10-KおよびForm 10-Q、ならびに当社が証券取引委員会にForm 8-Kで提出する可能性のある報告書の開示をご参照ください。当社のすべての記述は、本日2024年8月28日現在、当社が現在入手可能な情報に基づいて作成されています。法律で義務付けられている場合を除き、当社はこのような記述を更新する義務を負いません。
本通話では、非GAAPベースの財務指標について説明します。
これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整については、当社のウェブサイトに掲載されているCFOコメンタリーをご覧ください。
金融業界向けに開催予定のイベントをご紹介します。
私たちは9月11日にサンフランシスコで開催されるGoldman Sachs Communacopia and Technology Conferenceに出席し、ジェンセンは基調講演のファイヤーサイドチャットに参加します。
2025年度第3四半期の業績についての決算説明電話は、2024年11月20日(水)に予定されています。それでは、コレットに電話を回します。
コレット・クレス
ありがとう、スチュワート。第2四半期も記録的な四半期でした。売上高は300億ドルで、前四半期比15%増、前年同期比122%増となり、見通しの280億ドルを大きく上回りました。まずはデータセンターから。データセンターの売上高は 263 億ドルで、前四半期比 16%増、前年同期比 154%増の記録的な増収となりました。これは、エヌビディア・ホッパー、GPU コンピューティング、当社のネットワーキング・プラットフォームに対する旺盛な需要に牽引されたものです。コンピュート売上高は2.5倍以上に成長しました。ネットワーキングの収益は前年比2倍以上の伸びとなった。クラウドサービスプロバイダーはデータセンター収益の約45%を占め、50%以上はコンシューマー・インターネットおよびエンタープライズ企業によるものです。顧客は引き続きHopperアーキテクチャーの購入を加速させる一方、Blackwellの採用準備を進めている。当社のデータセンターの成長を牽引する主なワークロードには、生成AIモデルのトレーニングと推論、CUDAとAIワークロードによるビデオ、画像、テキストデータの前処理と後処理、合成データ生成、AIを活用したレコメンダーシステム、SQLとベクターデータベース処理などがあります。
次世代モデルは、より多くのデータで学習するために、10倍から20倍の計算能力を必要とするでしょう。この傾向は今後も続くと予想される。
直近4四半期では、推論がデータセンター収益の40%以上を牽引したと推定しています。CSP、コンシューマー・インターネット企業、そして企業は、エヌビディアの推論プラットフォームの驚異的なスループットと効率性から恩恵を受けています。NVIDIAに対する需要は、フロンティア・モデル・メーカー、消費者向けインターネット・サービス、そして消費者、広告、教育、企業、ヘルスケア、ロボット工学向けのジェネレーティブAIアプリケーションを構築する何万もの企業や新興企業から寄せられています。開発者は、NVIDIAの豊富なエコシステムとあらゆるクラウドでの可用性を望んでいます。CSPはNVIDIAの広範な採用を評価し、高い需要を背景にNVIDIAのキャパシティを拡大しています。NVIDIA H200プラットフォームは、第2四半期に稼働を開始し、大規模なCSP、コンシューマー・インターネットおよびエンタープライズ企業に出荷されています。NVIDIA H200は、当社のHopperアーキテクチャの強みを基盤としており、H100と比較してメモリ帯域幅が40%以上向上しています。
中国におけるデータセンターの売上は第 2 四半期に前四半期比で増加し、データセンターの売上に大きく貢献した。
データセンター総売上高に占める割合は、輸出規制発動前の水準を下回っている。
中国市場は今後も非常に競争が激しくなると予想しています。MLPerf推論ベンチマークの最新ラウンドでは、NVIDIA HopperとBlackwellプラットフォームの両方がすべてのタスクで金メダルを獲得し、NVIDIAの推論におけるリーダーシップが浮き彫りになりました。ComputexでNVIDIAは、トップクラスのコンピュータメーカーとともに、Blackwellアーキテクチャを搭載したシステムの数々と、AI工場やデータセンターを構築するためのNVIDIAネットワーキングを発表した。
NVIDIA MGXモジュラー・リファレンス・アーキテクチャにより、当社のOEMおよびODMパートナーは、迅速かつコスト効率よく設計された100以上のBlackwellベースのシステムを構築しています。NVIDIA Blackwellプラットフォームは、複数のGPU、CPU、DPU、NVLinkとリンクスイッチ、そしてネットワーキングチップ、システム、NVIDIA CUDAソフトウェアをまとめ、ケース、産業、国を超えて次世代のAIを強化します。第5世代のNVLinkを搭載したNVIDIA GB200 NVL72システムは、72基のGPUすべてを単一のGPUとして機能させ、LLMのワークロードに対して最大30倍の高速推論を実現し、兆単位のパラメータモデルをリアルタイムで実行する能力を解き放ちます。Hopperの需要は旺盛で、Blackwellは広くサンプリングされています。生産歩留まりを向上させるため、Blackwell GPUの質量を変更しました。Blackwell の増産は第 4 四半期に開始され、'26 年度に続く予定です。第4四半期には、数十億ドルのBlackwellの売上を見込んでいる。ホッパーの出荷は 2025 年度下半期に増加する見込みです。ホッパーの供給と稼働率は改善している。ブラックウェル・プラットフォームの需要は供給を大きく上回っており、これは来年も続くと予想される。ネットワーキングの収益は前四半期比で16%増加した。
Spectrum-Xエンド・ツー・エンド・イーサネット・プラットフォームを含むAI向けイーサネットの売上高は、数百社の顧客が当社のイーサネット製品を採用し、前四半期比で倍増した。Spectrum-XはOEMおよびODMパートナーから幅広い市場支持を得ており、世界最大のGPUコンピュートクラスタを接続するxAIを含め、CSP、GPUクラウドプロバイダー、企業で採用されている。Spectrum-XはAI処理向けにイーサネットをスーパーチャージし、従来のイーサネットの1.6倍の性能を実現します。当社は、現在の数万GPUから近い将来には数百万DPUへとコンピュートクラスタを拡張する需要をサポートするため、毎年新しいSpectrum-X製品を発売する予定です。Spectrum-Xは、1年以内に数十億ドル規模の製品ラインを開始する予定です。
各国がAIの専門知識とインフラを自国の社会と産業にとって必要不可欠なものと認識しているため、当社のソブリンAIの機会は拡大し続けています。日本の産業技術総合研究所は、エヌビディアとともにAIブリッジングクラウド基盤3.0スーパーコンピューターを構築している。我々は、ソブリンAIの売上高は今年2桁億円台前半に達すると見ている。エンタープライズAIの波は始まった。当四半期は、エンタープライズも前四半期比で増収となりました。
当社は、フォーチュン100社のほとんどと、業界や地域を超えたAIイニシアティブで協働しています。収益化可能な新しいビジネス・アプリケーションを構築し、従業員の生産性を向上させるための、AIを活用したチャットボット、ジェネレーティブAIコピロット、エージェントなど、さまざまなアプリケーションが当社の成長を後押ししています。Amdocsは、スマートエージェントにNVIDIAのジェネレーティブAIを使用し、顧客体験を変革し、顧客サービスのコストを30%削減しています。ServiceNowはNow AssistにNVIDIAを採用し、同社史上最も急成長した新製品となっています。SAPは、「デュアル」コパイロットの構築にNVIDIAを使用しています。Cohesityは、生成AIエージェントを構築し、生成AIの開発コストを削減するためにNVIDIAを使用しています。Snowflakeは、10,000社以上の企業顧客に1日30億以上のクエリーを提供しており、NVIDIAと協力してコピロットを構築しています。最後に、NVIDIA AI Omniverseを使用して、工場のエンドツーエンドのサイクルタイムを50%短縮しています。自律走行車技術を開発するすべての自動車メーカーがデータセンターでエヌビディアを使用しているため、自動車は当四半期の主要な成長ドライバーでした。オートモーティブは、オンプレミスとクラウドの両方で数十億ドルの売上を牽引し、次世代AVモデルが大幅に多くのコンピュート(計算能力)を必要とするようになるにつれて成長する。AIが医療画像、手術ロボット、患者ケア、電子カルテ処理、創薬に革命を起こすにつれて、ヘルスケアも数十億ドル規模のビジネスになりつつある。
当四半期中、私たちは、MetaのLlama 3.1モデルコレクションで世界の企業のためのジェネレーティブAIを超強化する新しいNVIDIA AIファウンドリーサービスを発表しました。これはエンタープライズAIにとって画期的な出来事です。企業は初めて、オープンソースのフロンティアレベル・モデルの能力を活用し、カスタマイズされたAIアプリケーションを開発することができる。アクセンチュアは、この新サービスを採用した最初の企業であり、自社で使用するだけでなく、ジェネレーティブAIアプリケーションの導入を目指すクライアントを支援するために、カスタムLlama 3.1モデルを構築しています。NVIDIA NIMはモデル展開を加速し、簡素化します。医療、エネルギー、金融サービス、小売、運輸、通信などの企業がNIMを採用しており、アラムコ、ロウズ、ウーバーなどが含まれる。AT&Tは、ジェネレーティブAI、通話トランスクリプション、分類のためにNIMに移行した後、70%のコスト削減と8倍のレイテンシ削減を実現した。150社以上のパートナーが、AIエコシステムのあらゆるレイヤーにNIMを組み込んでいます。NIM Agent Blueprintを発表しました。NIM Agent Blueprintはカスタマイズ可能なリファレンス・アプリケーションのカタログで、企業向けジェネレーティブAIアプリケーションを構築・展開するためのソフトウェア一式が含まれています。NIM Agent Blueprintにより、企業は時間をかけてAIアプリケーションを改良し、データ駆動型のAIフライホイールを構築することができます。
最初のNIM Agent Blueprintには、顧客サービス、コンピュータ支援創薬、企業検索拡張世代などのワークロードが含まれています。
当社のシステムインテグレーター、テクノロジーソリューションプロバイダー、システムビルダーは、NVIDIA NIM Agent Blueprintsを企業に提供しています。NVIDIA NIMとNIM Agent Blueprintsは、勢いのあるNVIDIA AI Enterpriseソフトウェアプラットフォームを通じて利用できます。
当社のソフトウェア、SaaS、およびサポートの収益は、今年を最後に年間20億ドルに近づくと予想しており、NVIDIA AI Enterpriseは特に成長に貢献しています。
ゲーミングとAI PCに話を移す。ゲーミングの売上高は28億8,000万ドルで、前四半期比9%増、前年同期比16%増となりました。コンソール、ノートブック、デスクトップの収益が前四半期比で増加し、需要は堅調に伸びており、チャネル在庫も健全な状態を維持しています。RTX搭載PCはすべてAI PCです。RTX PCは最大1,300のAIトップを実現でき、現在、主要PCメーカーが設計したRTX AIノートPCは200を超えています。600のAI搭載アプリケーションとゲーム、そして1億台のインストールベースにより、RTXはジェネレーティブAIで消費者体験に革命を起こそうとしています。ジェネレーティブAI技術のスイートであるNVIDIA ACEは、RTX AI PCで利用可能です。メガブレイクは、NVIDIA ACEを使用する最初のゲームであり、デバイス推論に最適化された当社の小型言語モデルNemotron 4Bを含みます。NVIDIAゲーミングエコシステムは成長を続けています。最近追加されたRTXおよびDLSSタイトルには、Indiana Jones and The Great Circle、AwakeningおよびDragon Age: The Vanguardが含まれます。GeForce NOWのライブラリは拡大を続けており、総カタログサイズは2,000タイトルを超え、どのクラウド・ゲーミング・サービスよりもコンテンツ数が多くなっています。
プロビジュアライゼーションに移ります。売上高は4億5,400万ドルで、前四半期比6%増、前年同期比20%増となりました。モデルの微調整やOmniverse関連のワークロードなど、AIやグラフィックのユースケースが需要を牽引している。自動車と製造業は、今四半期の成長を牽引した主な業種のひとつである。企業は業務全体の効率化を推進するため、ワークフローのデジタル化を急いでいる。世界最大の電子機器メーカーである Foxconn は、NVIDIA Omniverse を使用して、NVIDIA Blackwell システムを製造する物理的な工場のデジタルツインを動かしています。また、メルセデス・ベンツを含む複数のグローバル大企業は、工場の産業用デジタルツインを構築するために、NVIDIA Omniverse Cloudの複数年契約を締結しました。新しいNVIDIA USD NIMとコネクタを発表し、Omniverseを新しい産業に開放し、開発者がジェネレーティブAIコパイロットとエージェントをUSDワークロードに組み込むことを可能にし、高精度の仮想世界を構築する能力を加速します。WPPは、The Coca-Cola Companyなどの顧客向けのジェネレーティブAI対応コンテンツ作成パイプラインに、USD NIMマイクロサービスを実装しています。
自動車とロボティクスへ 売上高は3億4,600万ドルで、前四半期比5%増、前年同期比37%増となった。前年同期比の成長は、自動運転プラットフォームにおける新規顧客の立ち上がりとAIコックピット・ソリューションの需要増加が牽引した。コンシューマー--Computer Vision and Pattern Recognition Conferenceにおいて、エヌビディアはエンド・ツー・エンドのドライビング・アップスケール部門でAutonomous Brand Challengeを受賞し、世界400以上のエントリーを凌駕した。ボストン・ダイナミクス、BYDエレクトロニクス、フィギュア、イントリンシック、シーメンス、テラダイン・ロボティクスは、自律型ロボットアーム、ヒューマノイド、モバイルロボットにエヌビディア・アイザック・ロボティクス・プラットフォームを使用しています。
さて、損益計算書の残りの部分に移ります。GAAPベースの売上総利益率は75.1%、非GAAPベースの売上総利益率は75.7%で、データセンター事業における新製品の構成比が高まったこと、および低歩留まりのブラックウェル材の在庫引当金の計上により、前四半期比で減少しました。GAAP基準および非GAAP基準の営業費用は、主に報酬関連費用の増加を反映し、前四半期比で12%増加した。営業キャッシュフローは 145 億ドルであった。第2四半期には、株主1人当たり配当金の増額を反映し、74億ドルの現金を自社株買いおよび現金配当という形で株主還元に充当した。
取締役会は先ごろ、500億ドルの自社株買戻し枠を承認し、第2四半期末時点の残り枠75億ドルに追加しました。
第3四半期の見通しについてご説明します。総収益は325億ドル、プラスマイナス2%の見通しです。
第 3 四半期の売上高見通しには、Hopper アーキテクチャーの継続的な成長と Blackwell 製品のサンプリングが織り込まれています。
Blackwellの生産は第4四半期に立ち上がる見込みです。GAAPベースの売上総利益率は74.4%、非GAAPベースの売上総利益率は75%(プラスマイナス50bp)を見込んでいます。
データセンターの構成比は引き続き新製品にシフトしており、この傾向は2025年度第4四半期も続くと予想しています。
通期の売上総利益率は70%台半ばを見込んでいます。営業費用はGAAPベースで約43億ドル、非GAAPベースで約30億ドルとなる見込みです。次世代製品の開発に取り組むため、通年の営業費用は40%台半ばから後半の伸びを見込んでいます。GAAP基準および非GAAP基準のその他の収益および費用は、非関連投資および公募株式からの損益を含め、約3億5,000万ドルを見込んでいます。GAAPおよび非GAAPベースの税率は、個別項目を除き、プラスマイナス1%の17%となる見込みです。財務の詳細については、CFOのコメントおよびIRウェブサイトでご覧いただけるその他の情報をご参照ください。
それでは質問を受け付けます。オペレーター、質問をお願いします。
質疑応答
オペレーター
最初のご質問は、バンク・オブ・アメリカ証券のヴィヴェク・アリヤさんからお願いします。
ヴィヴェク・アーヤ
ジェンセン、あなたは準備されたコメントの中で、ブラックウェルGPUマスクに変更があると述べました。バックエンドのパッケージングやその他の変更点はありますか?また、それに関連して、設計の変更にもかかわらず、第4四半期に数十億ドルのBlackwellを出荷できると示唆されたと思います。それまでにこれらの問題がすべて解決されるからでしょうか?Blackwellの出荷時期が変更された場合の全体的な影響や、それが御社の収益プロフィールにどのような意味を持つのか、また、顧客はそれに対してどのような反応を示しているのか、お聞かせください。
ジェンセン・ファン
はい、ありがとうございます。マスクの変更は完了しました。機能的な変更は必要ありませんでした。
それで、Blackwell、Grace Blackwellの機能的なサンプルを、さまざまなシステム構成で、今サンプリングしているところです。Computexで展示されたBlackwellベースのシステムは100種類ほどあり、エコシステムがそれらのサンプリングを開始できるようにしています。Blackwellの機能はそのままで、第4四半期には生産を開始する予定です。
オペレーター
次の質問は、ゴールドマン・サックスの針俊哉さんからです。
針 俊哉
ジェンセン、比較的長期的な質問です。
ご存知のように、市場では、顧客や顧客の投資収益率や、それが今後のCapExの持続可能性にどのような意味を持つかについて、かなり激しい議論が交わされています。NVIDIA社内では、皆さんはどのようなことに注目していますか?顧客の投資収益率や、それが設備投資にどのような影響を与えるかを計るために、ダッシュボードには何が表示されていますか?それから、コレットにフォローアップをお願いします。
通期のソブリンAIの数字が数十億ドル上がったと思います。この見通しの改善の要因は何でしょうか?また、26年度についてどのように考えるべきでしょうか?
ジェンセン・ファン
トシヤ、ありがとう。
まず、第4四半期に生産を出荷すると言ったのは、出荷を開始するという意味ではなく、生産を開始するという意味ではなく、出荷を増やすという意味です。
長期的な質問については、一歩引いて考えてみましょう。私たちは同時に2つのプラットフォーム移行を経験している。
1つ目は、アクセラレーテッド・コンピューティングから......汎用コンピューティングからアクセラレーテッド・コンピューティングへの移行です。その理由は、CPUのスケーリングが以前から鈍化していることが知られており、そのスピードが鈍化しているからです。それにもかかわらず、コンピューティングの需要量は大幅に伸び続けている。
もしかしたら、毎年倍増しているかもしれない。
ですから、もし新しいアプローチがなければ、コンピューティングのインフレはあらゆる企業のコストを押し上げ、世界中のデータセンターのエネルギー消費を押し上げることになるでしょう。
実際、あなたもそれを目の当たりにしているでしょう。
その答えがアクセラレーテッド・コンピューティングなのです。もちろん、アクセラレーテッド・コンピューティングがアプリケーションを高速化することは分かっています。また、科学シミュレーションやデータベース処理など、より大規模なコンピューティングが可能になります。実際、今週発表されたブログには、私たちが提供する新しいライブラリの数々が紹介されています。これこそが、汎用コンピューティングからアクセラレーテッド・コンピューティングへの、最初のプラットフォーム移行の核心なのです。コンピュータのコストを90%削減することも珍しくありません。その理由はもちろん、アプリケーションを50倍に高速化したからです。
コンピューティング・コストが大幅に減少することが期待できる。
大規模な言語モデルのトレーニングやディープラーニングのトレーニングにかかるコストを信じられないほど引き下げたことで、巨大なスケールのモデル、数兆パラメーター規模のモデルを持つことが可能になりました。
今、生成AIが、なぜ私たちがこれほどまでに深入りしたのかを一歩引いて考えてみると、それは単なる機能でも、能力でもないからです。ソフトウェアの根本的な新しいやり方なのだ。人間が設計したアルゴリズムの代わりに、私たちは今データを持っています。私たちはAIに、モデルに、コンピューターに、期待される答えを伝えます。私たちの過去の観察結果は?そして、アルゴリズムとは何か、機能とは何かを見つけ出す。AIは普遍的な関数を学習し、その関数を学習します。
だから、ほとんどあらゆるものの関数を学習することができる。予測可能なもの、構造を持っているもの、過去の事例があるもの、何でもです。
そして今、私たちはジェネレーティブAIを手に入れた。これはコンピューターサイエンスの基本的な新しい形だ。CPUからGPUまで、人間が開発したアルゴリズムから機械学習されたアルゴリズムまで、コンピューティングのあらゆるレイヤーに影響を与えており、開発・生産できるアプリケーションの種類は根本的に驚くべきものです。ジェネレーティブAIでは、いくつかのことが起こっている。
まず第一に、フロンティア・モデルの規模がかなり大きくなってきている。そして今もなお、スケーリングの恩恵を受けている。モデルの規模を2倍にすると、それを訓練するためのデータセットの規模も2倍以上になります。
そのため、モデルを作成するために必要なフロップ数は二次関数的に増加する。
そのため、次世代モデルが前世代モデルの10倍、20倍、40倍の計算量を必要とする可能性があることは予想外ではありません。
ですから、私たちは、消費エネルギーを削減し、そのために必要なコストを削減するために、世代のパフォーマンスを大幅に向上させ続けなければなりません。
最初の1つは、より多くのモダリティでトレーニングされた、より大きなフロンティアモデルが存在することです。そして驚くべきことに、昨年よりも多くのフロンティアモデル・メーカーが存在する。
そのため、より多くのモデルに、より多くのモデルを使用することになる。これが生成AIのダイナミクスの1つです。
もうひとつは、氷山の一角ではありますが、ChatGPT画像ジェネレーターです。私たちはコーディングを見ています。現在NVIDIAでは、コーディングにジェネレーティブAIをかなり広範囲に使用しています。もちろん、デジタル・デザイナーもたくさんいます。しかし、それらは氷山の一角です。氷山の一角の下にあるのは、現在世界で最大のシステム、最大のコンピューティング・システムです。現在はCPUからジェネレーティブAIへと移行している。
つまり、レコメンダー・システム、広告生成、非常に大規模でハイパーターゲティングな広告をターゲットにしたカスタム広告生成、検索、ユーザー生成コンテンツなど、これらはすべて非常に大規模なアプリケーションであり、現在はジェネレーティブAIへと進化しています。
もちろん、ジェネレーティブAIのスタートアップ企業の数は、私たちのクラウドパートナーに数百億ドルのクラウドレンタルの機会を生み出しています。
また、ソブリンAIは、データが自国の天然資源であり、国家資源であることを認識している国々が、AIを利用し、独自のデジタル・インテリジェンスを持つことができるよう、独自のAIインフラを構築するものです。コレットが先に述べたように、エンタープライズAIが始まっています。世界の主要なIT企業が、エヌビディアのAIエンタープライズ・プラットフォームを世界の企業に提供するために、私たちに参加するという発表をご覧になったかもしれません。私たちが話をしている企業の多くは、会社の生産性を向上させることに非常に興奮しています。そして、一般的なロボティクス。オムニバースのような強化学習システムから、ビデオや人間のデモンストレーション、合成データ生成から物理的なAIを学習できるようになったことで、昨年は大きな変革がありました。
このように、ジェネレーティブAIには実にさまざまな方向性があることがおわかりいただけると思います。
このように、ジェネレーティブAIの勢いは加速しています。
コレット・クレス
そしてトシヤ、ソブリンAIと私たちの成長目標、収益目標についてのご質問にお答えしますと、それは確かにユニークで成長する機会です。ジェネレイティブAIと世界中の国々が、その国の言語、文化、データを取り入れることができる独自のジェネレイティブAIを持ちたいという願望から表面化したものです。
そのため、このようなモデルや、そのような国々に特化したモデルについて、ますます盛り上がりを見せている。
ですから、私たちの目の前には成長のチャンスが広がっているのです。
オペレーター
次の質問は、モルガン・スタンレーのジョー・ムーアさんからです。
ジョセフ・ムーア
ジェンセン、プレスリリースの中で、ブラックウェルの期待値がすごいとおっしゃっていましたね。しかし、Hopperの需要も本当に強いようです。つまり、あなたは10月のブラックウェル抜きでも非常に好調な四半期になるとの見通しを示しています。
つまり、10月にBlackwellがなければ、非常に好調な四半期になるとの見通しを立てているわけです。また、Blackwellへの移行についてお聞かせください。また、Blackwellへの移行についてお聞かせください。ブラックウェルの活動のほとんどは、新しいクラスターだと思いますか?その移行がどのようなものなのか、感覚的に教えてください。
ジェンセン・ファン
ありがとう、ジョー。ホッパーの需要は本当に強い。そして、Blackwellの需要がすごいのは事実です。それにはいくつかの理由があります。
1つ目の理由は、世界のクラウド・サービス・プロバイダーを見てみると、GPUのキャパシティは基本的に皆無です。その理由は、GPUが自社のワークロード(データ処理など)を高速化するために社内で導入されているからです。データ処理については、平凡な作業なのでほとんど話題になりません。画像を生成するわけでも、言葉を生成するわけでもないからだ。しかし、世界中のほとんどすべての企業がバックグラウンドでデータを処理しています。そしてNVIDIAのGPUは、データを処理し加速する地球上で唯一のアクセラレータなのです。SQLデータ、パンダのデータ、パンダのようなデータサイエンスツールキット、そして新しいものではポラールのデータ。これらは、世界で最も普及しているデータ処理プラットフォームだ。そして、CPUは別として、前にも述べたように、CPUは本当に息切れしており、NVIDIAのアクセラレーテッド・コンピューティングは、そのパフォーマンスを向上させる唯一の方法です。
そのため、1つ目の主な用途は、ジェネレーティブAIが登場するずっと前から、アプリケーションを次々とアクセラレーテッド・コンピューティングに移行させることです。
2つ目は、もちろんレンタルだ。モデルメーカーやスタートアップ企業に容量をレンタルしているのだ。ジェネレーティブAI企業は、投資した資本の大半をインフラに費やし、AIを使って製品作りを支援する。
そのため、これらの企業は今すぐAIを必要としている。資金を調達したところで、それを今すぐ使ってほしいのです。
あなたにはやらなければならない処理がある。
来年にはできない。
これが1つ目の理由です。
ホッパーの需要が高い2つ目の理由は、次のプラトーへの競争です。
次のプラトーに最初に到達した者は、革命的なレベルのAIを導入することになる。
2番目にそこに到達した人は、少しずつ良くなるか、同じ程度になる。
計画的かつ一貫して次のプラトーまで競争し、そこに最初に到達する能力こそが、リーダーシップを確立する方法なのです。NVIDIAは常にそれを実践しており、GPUやAI工場、ネットワークシステム、SoCを世に送り出しています。つまり、私たちはペースを作りたいのです。常に世界最高でありたい。それが、私たちが自らを厳しく駆り立てる理由なのです。
もちろん、私たちは夢を実現することも望んでいますし、私たちが想像する将来的な機能や、社会にもたらすことができる恩恵のすべてを実現させたいと考えています。
だから、このモデルメーカーも同じなのだ。
もちろん、彼らは世界一になりたい。世界一になりたいのだ。そして、Blackwellは今年末に数十億ドル規模の出荷を開始するが、能力の立ち上がりはまだ数週間から1カ月ほど先だろう。
そのため、今とそれとの間には、多くのジェネレーティブAI市場のダイナミズムがある。
そのため、誰もが本当に急いでいる。業務上の理由で必要なのでしょう。加速コンピューティングが必要なのだ。これ以上汎用コンピューティング・インフラを構築したくないのです。
もちろん、H200は最先端です。Hopperは、ビジネス用のCPUインフラを今すぐ構築するか、ビジネス用のHopperインフラを今すぐ構築するか、どちらかを選択しなければならないのであれば、その決断は比較的明確です。
そのため、人々は1兆ドル規模のインストール済みインフラを最新のインフラに移行させようと躍起になっているのだと思います。
オペレーター
次の質問はTDコーウェンのマット・ラムジーさんからです。
マシュー・ラムジー
ジェンセン、この設備投資に対する投資回収率について投資家が議論していることについて、少し前の質問に戻りたいと思います。うまくいけば、この質問と区別が意味をなすかもしれません。しかし、私が議論しているのは、AGIコンバージェンスに向けてフロンティアを押し広げ、あなたが今おっしゃったように、能力の新たなプラトーを目指して、この資金を費やしている人たちの割合についてです。この区別が意味を持つかどうかはわかりません。私はただ、この新しいテクノロジーにお金をつぎ込んでいる人たちの優先順位や、その投資の優先順位と時間枠について、あなたがどのように見ているのかを知りたいだけなのです。
ジェンセン・ファン
ありがとう、マット。NVIDIAのインフラに投資している人たちは、すぐにリターンを得ています。NVIDIAのインフラ、コンピューティング・インフラへの投資は、今できる投資としては最高のROIです。
この問題を考える1つの方法は、おそらく最も......最も簡単な方法は、最初の原則に立ち返ることだ。
あなたは1兆ドル相当の汎用コンピューティング・インフラを持っています。問題は、それをさらに構築したいのか、したくないのか、ということです。10億ドル相当のジュニパー製CPUベースのインフラを構築するごとに、おそらく10億ドル以下でレンタルすることになるでしょう。
つまり、コモディティ化されているため、すでに1兆ドル規模が存在しているのです。これ以上増やす意味があるのか?ホッパー・ベースのインフラを構築し、やがてブラックウェル・ベースのインフラを構築すると、彼らはお金を節約し始める。これは投資に対する大きなリターンだ。なぜ節約できるようになるかというと、データ処理によってお金が節約できるからです。
レコメンダー・システムはお金を節約します。そうしてお金を節約し始めるのです。
もうひとつは、あなたが立ち上げたものはすべてレンタルされるということです。
そのため、あなたのキャパシティはすぐにレンタルされ、その投資対効果は実に高い。そして3つ目の理由は、あなた自身のビジネスです。次世代広告システムや次世代レコメンダー・システム、次世代検索システムによって、次のフロンティアを自分で作りたいのか、あるいは自社のインターネット・サービスが恩恵を受けたいのか。つまり、自社サービス、自社店舗、自社ユーザー生成コンテンツ、ソーシャルメディア・プラットフォーム、自社サービスにとって、ジェネレーティブAIはROIも速いのです。
このように、さまざまな方法が考えられます。しかし、核心にあるのは、それが今日地面に置くことができる最高のコンピューティング・インフラだからです。汎用コンピューティングの世界は、アクセラレーション・コンピューティングに移行しつつある。人間が設計したソフトウェアの世界は、ジェネレーティブAIソフトウェアへと移行しつつある。
クラウドやデータセンターを近代化するためのインフラを構築するのであれば、エヌビディアのアクセラレーテッド・コンピューティングを使ってください。それが最善の方法です。
オペレーター
次の質問はUBSのティモシー・アルキュリさんからです。
ティモシー・アルクリ
近い将来と長期的な収益成長の形について質問があります。コレット、あなたは年間営業経費を増やしましたね。また、購入コミットメントと供給義務の増加を見ると、これもかなり強気です。
一方で、液冷に対応できる顧客はそれほど多くないという意見もあり、空冷が可能なラックもあると認識しています。しかし、ジェンセン、ブラックウェルがどのように立ち上がるか、それを検討する必要があるのでしょうか?また、来年以降を見据えた場合、明らかに素晴らしい年になると思いますが、26年を見据えた場合、例えば電源チェーンや、ある時点でモデルが小型化し始めるといったような、他のゲート要因について心配することはありますか?それについてお話いただけますか?
ジェンセン・ファン
逆算してみます。ティム、質問には本当に感謝しています。
世界は汎用コンピューティングからアクセラレーテッド・コンピューティングへと移行しています。世界は約1兆ドル相当のデータセンターを建設しています。数年後には、1兆ドル相当のデータセンターがすべてアクセラレーテッド・コンピューティングになるでしょう。これまでのデータセンターにはGPUはなく、CPUだけだった。将来的には、すべてのデータセンターにGPUが導入されるでしょう。その理由は非常に明確で、持続可能性を維持するためにワークロードを高速化し、コンピューティングのコストを下げ続ける必要があるからです。
第二に、ジェネレーティブAIと呼ばれる新しいコンピューティング・モデルのためにGPUが必要です。
つまり、逆算して考えると、世界のインフラの次の1兆ドルは、過去の1兆ドルとは明らかに異なり、大幅に加速することになると思います。タラップの形状に関して、私たちはBlackwellの複数のコンフィギュレーションを提供しています。Blackwellには、我々がVoltaで開拓したHGXフォーム・ファクターを採用したBlackwell classicがあります。確かVoltaだったと思います。
HGXフォームファクターは以前から出荷しています。これは空冷です。Grace Blackwellは液冷です。
しかし、液冷を希望するデータセンターの数は非常に多い。その理由は、液冷のデータセンターであれば、どのようなデータセンターであっても、電力制限のあるデータセンターであっても、どのような規模のデータセンターであっても、従来と比較して3倍から5倍のAIスループットを導入・展開できるからです。
そのため、液冷の方が安価なのです。液冷の方がTCOは向上します。液冷では、NVLinkと呼ぶ機能の恩恵を受けることができ、グレース・ブラックウェル・パッケージを72個まで拡張することができます。
NVLinkで接続された144個のGPUを想像してみてください。NVLinkで接続された144個のGPUを想像してみてください。そして次のクリックは、非常に低レイテンシーで高スループットの大規模言語モデル推論です。
ですから、皆さんは両方を導入することに非常に満足していると思います。
私たちが協力しているCSPはほとんどすべて、この両方を導入しています。
ですから、私たちはうまく立ち上げることができると確信しています。
3つ目の質問のうち2つ目は、来年は素晴らしい年になるということです。
来年はデータセンター・ビジネスが大きく成長すると期待しています。Blackwellは業界にとって完全にゲーム・チェンジャーになるでしょう。そして、Blackwellは翌年も続くでしょう。先ほど申し上げたように、第一原理から逆算すると、コンピューティングは2つのプラットフォームの移行を同時に経験していることになります。それは、汎用コンピューティングがアクセラレーテッド・コンピューティングに移行し、人間が開発したソフトウェアがジェネレーティブAIや人工知能が学習したソフトウェアに移行するということです。
なるほど。
オペレーター
次の質問はバーンスタイン・リサーチのステイシー・ラスゴンです。
ステイシー・ラスゴン
コレットに2つ短い質問があります。
まず、第4四半期のブラックウェルの売上は数十億ドルですが、これは追加的なものですか?あなたはホッパーの需要が下半期に強化されると予想していると言いました。ということは、Blackwellの数十億ドルの追加に加えて、Hopperも第3四半期から第4四半期にかけて強化されるということでしょうか?次に粗利率についての質問です。仮に年間70%台半ばとすると、それを引き当てたいところで、年間が[ 75 ]だとすると、第4四半期は71から72といったところでしょうか。粗利率の出口レートはそのようなものでしょうか?また、Blackwellが成長するにつれて、来年への売上総利益率の変化をどのように考えるべきでしょうか?また、歩留まりや在庫引当金、その他もろもろが改善されることを期待しています。
コレット・クレス
そうですね。
ではステイシー、まずホッパーとブラックウェルについてのご質問から。
ホッパーは下半期も成長し続けると思います。
ホッパーには多くの新製品があり、ホッパーの既存製品も、第3四半期を含む次の四半期に立ち上がり、それらの新製品は第4四半期に移行すると考えています。
そのため、対上半期のHopperは成長のチャンスと言えるでしょう。
さらに、その上にBlackwellがあり、Blackwellは第4四半期に立ち上がり始めます。
ですから、この2つについてお役に立てれば幸いです。
2つ目は売上総利益率です。第3四半期の売上総利益率をお知らせしました。非GAAPベースの粗利益率は約75でした。しかし、第3四半期は75を達成できると考えています。通期でも70%台半ば、あるいは75%程度を維持できる見込みです。
そのため、第4四半期には、新製品導入に伴う移行やコスト構造の違いにより、若干の差異が生じる可能性があります。
しかし、私はあなたと同じような数字にはなっていません。正確なガイダンスはありませんが、私たちが考えているよりも低い数字だと思います。
オペレーター
次のご質問は、メリアスのベン・ライツです。
ベンジャミン・ライツ
地域についてお聞きしたいと思います。10-Qが発表されましたが、米国は前四半期比で減少している一方で、アジアのいくつかの地域は前四半期比で大きく増加していました。
そこでどのような動きがあったのでしょうか。中国は非常に好調でした。
あなたの発言にもありました。プットとテイクは何ですか?それから、ステイシーの質問からはっきりさせたいのですが、これらの好収益ダイナミクスを考えると、会社全体の前期の収益成長率が第4四半期に加速するということでしょうか?
コレット・クレス
10-Qでの情報開示について少しお話させてください。適切な情報開示を行うためには、1つの重要な部分を作成する必要があり、非常に難しいことです。私たちは、誰に販売しているか、あるいは誰に請求書を発行しているかという点で、さまざまな開示を行っています。最終的に製品が最終顧客の手に渡るとは限りません。私たちの製品ポートフォリオの大部分は、OEMやODM、システム・インテグレーターに移行しています。
そのため、データセンターやノートPCに導入される前に完全なコンフィギュレーションを完了させるために使用される相手という点で、迅速なシフトが行われることもあります。そのようなシフトは時々起こります。しかし、中国への請求は行っています。この数字には、ゲーム、データセンター、自動車が含まれていることを覚えておいてください。
売上総利益率について、またHopperとBlackwellの収益についてお聞かせください。ホッパーは下半期も成長を続けるでしょう。現在見ているところから成長を続けるでしょう。第3四半期と第4四半期それぞれの正確な構成比を決定することはできません。
第4四半期については、まだご案内できる段階ではありません。しかし、今現在、需要の見通しは立っています。第4四半期には成長のチャンスになるという見通しがあります。それに加えて、ブラックウェル・アーキテクチャーがあります。
オペレーター
次の質問は、カントー・フィッツジェラルドのC.J.ミューズです。
クリストファー・ミューズ
あなたは目覚ましい年次製品計画に着手していますが、かなり限界のある先進的なパッケージの世界で複雑さが増していることを考えると、課題はますます大きくなっていると思われます。
このような背景から、垂直統合やサプライチェーンパートナーシップの拡大、そしてマージンプロファイルへの影響について、どのようにお考えですか?
ジェンセン・ファン
はい、ありがとうございます。
見てみましょう。
最初の質問に対する答えは、ベロシティがこれほど高いのは、同時にモデルの複雑さが増しているからであり、コストを下げ続けたいからです。成長しているからこそ、その規模を拡大し続けたいのです。そして、AIモデルの規模を拡大し続けることで、並外れた有用性のレベルに到達し、次の産業革命が実現すると信じています。私たちはそう信じています。
ですから、私たちはその規模を拡大し続けるために、本当に懸命に自らを駆り立てるつもりです。
私たちには、AI工場を統合し、設計する能力があります。すべての部品を持っていない限り、毎年新しいAI工場を開発することは不可能です。
来年は、当社の歴史上かつてないほど多くのCPU、もちろんGPUを出荷する予定です。さらに、NVLinkスイッチ、CX DPU、東西のConnectX、南北のBlueField DPU、スーパーコンピューティングセンター向けのInfiniBand、イーサネットへのデータおよびストレージ処理、そして、当社にとってまったく新しい製品であり、AIをイーサネットにもたらす数十億ドル規模のビジネスに成長する途上にあります。
そのため、私たちはこれらすべてにアクセスし、1つのアーキテクチャ・スタックを構築することができました。そうでなければどうなるかというと、部品を出荷し、それを販売する顧客を見つけ、そして誰かがAI工場を立ち上げなければならない。
だから、誰がそれを統合するかは問題ではない。私たちは、クアンタ、フォックスコン、HP、デル、レノボ、スーパーマイクロにサービスを提供できるという意味で、サプライチェーンが崩壊しているという事実が気に入っています。以前はZTEにもサービスを提供していました。ZTEは最近買収されましたが。
ギガバイトのようなエコシステム・パートナーの数は、世界中のクラウド・サービス・プロバイダーやエンタープライズ・データセンターに、当社のアーキテクチャをオーダーメイドで統合することを可能にしています。
そのため、私たちはそのようなことはしたくないし、苦手なのです。しかし、私たちはAIインフラを設計する方法を知っており、顧客が望む方法を提供し、エコシステムにそれを統合させることができます。そうですね。
とにかく、それが理由です。
オペレーター
最後の質問はウェルズ・ファーゴのアーロン・レイカーズさんからです。
アーロン・レイカーズ
ブラックウェルの商品サイクルに戻りたいと思います。
よく聞かれる質問のひとつに、NVLinkの活用を考えたり、GB NVL72について考えたりする中で、ラック・スケールのシステム・ミックスのダイナミックさをどのように見ているか、また、Blackwellの製品サイクルに関する市場投入のダイナミックさをどのように見ているかというものがあります。端的に言えば、Blackwellのサイクルについて考え始めたとき、ラック・スケール・システムのミックスはどうなるとお考えですか?
ジェンセン・ファン
アーロン、ありがとう。Blackwellのラックシステムは、ラックとして設計・デザインされていますが、システムコンポーネントを分割して販売しています。ラック全体は販売していません。その理由は、人によってラックが少しずつ異なるからです。
OCP規格のものもあれば、そうでないものもある。
企業向けもある。そして、電力制限も皆少しずつ異なる可能性がある。CDUの選択、電源バスバーの選択、構成、データセンターへの統合など、すべてが異なります。
そのため、私たちはラック全体を設計しました。ソフトウェアはラック全体で完璧に動作します。そして、システム・コンポーネントを提供します。例えば、CPUとGPUのコンピュートボードはMGXに統合されます。モジュール式のシステム・アーキテクチャです。MGXは完全に独創的です。MGXのODMやインテグレーター、OEMが工場中にあります。
そのため、3,000ポンドのラックをどこに納入するかなど、どのような構成も可能です。かなり重いため、データセンターの近くで組み立てられなければなりません。
そのため、GPU、CPU、スイッチ、NICを出荷した時点から、サプライチェーンのすべてが、CSPの所在地やデータセンターの所在地に近い場所で統合されます。
ですから、世界中にどれだけのデータセンターがあり、ODMパートナーとともにどれだけのロジスティクス・ハブまでスケールアウトしているか想像できると思います。
そのため、1ラックとして表示し、常にそのようにレンダリングし、表示しているため、我々が統合を行っているという印象を与えてしまっているのかもしれません。
私たちの顧客は、私たちが統合を行うことを嫌います。サプライチェーンは私たちが統合を行うことを嫌います。彼らは統合を望んでいる。それが彼らの付加価値なのだ。最終的なデザイン・インがある。データセンターへのシミーインほど単純ではありませんが、デザイン・フィットは実に複雑です。
デザイン・フィット・イン、設置、立ち上げ、修理、交換、これらすべてのサイクルが世界中で行われています。私たちは、ODMやOEMのパートナーで構成される広範なネットワークを持っており、これらのネットワークは驚くほどよく機能しています。
ですから、私たちがラックを作る理由は統合ではありません。統合を行うのは、その反理由なのだ。私たちはインテグレーターではなく、テクノロジー・プロバイダーになりたいのです。
オペレーター
それでは、ジェンセン・フアンの閉会のご挨拶に代えさせていただきます。
ジェンセン・ファン
ありがとうございます。
もう2、3......先ほどのコメントをもう一度させてください。世界中のデータセンターは、アクセラレーテッド・コンピューティングとジェネレーティブAIによって、コンピューティング・スタック全体を近代化しようとフル回転しています。ホッパーの需要は引き続き旺盛で、Blackwellへの期待は驚くほど大きい。
私たちの会社のトップ5を紹介しましょう。アクセラレーテッド・コンピューティングは転換点を迎えている。CPUのスケーリングは遅くなる。開発者は可能な限りすべてを加速させなければならない。アクセラレーテッド・コンピューティングはCUDA-Xライブラリから始まります。
新しいライブラリはNVIDIAに新しい市場を開きます。私たちは、CUDA-X Accelerated Polars、Pandas、Spark、主要なデータサイエンスおよびデータ処理ライブラリ、ベクトルデータベース用のCUVI-Sなど、多くの新しいライブラリをリリースしました。これは今、非常にホットです。Arielと5G無線基地局向けには、データセンターの世界全体を網羅するスイートがあり、今すぐにでも利用できます。遺伝子配列決定のためのParabricksや、タンパク質構造予測のためのAlphaFold2は、現在CUDAで加速されています。
私たちは、1兆ドル相当のデータセンターを汎用コンピューティングからアクセラレーテッド・コンピューティングへと近代化する旅の始まりにいます。これがその1です。その2、BlackwallはHopperをステップ関数的に飛躍させたものです。BlackwellはAIインフラ・プラットフォームであり、単なるGPUではありません。GPUの名前にもなっていますが、AIインフラ・プラットフォームなのです。
Blackwellの詳細やサンプルシステムをパートナーや顧客に公開するにつれて、Blackwellのリードの大きさが明らかになります。Blackwellのビジョンは、実現に約5年の歳月と7つのオンリーワン・チップを要し、Gray CPU、BlackwellデュアルGPUとコロス・パッケージ、東西トラフィック用のConnectX DPU、南北およびストレージ・トラフィック用のBlueField DPU、全対全GPU通信用のNVLinkスイッチ、InfiniBandとイーサネットの両方に対応するQuantumとSpectrum-Xは、AIの大規模トラフィックをサポートすることができる。ブラックウェルのAI工場は、サイズのコンピュータを構築している。エヌビディアは、チップ、システム、ネットワーキング、さらには構造化ケーブル、電力、冷却、ソフトウェアの山に至るまで、エンドツーエンドのBlackwellプラットフォームのフルスタックを設計し、最適化することで、顧客がAI工場を迅速に構築できるようにした。これらは非常に資本集約的なインフラです。顧客は、機器を手に入れたらすぐに導入し、最高のパフォーマンスとTCOを実現したいと考えています。Blackwellは、電力制限のあるデータセンターにおいて、Hopperよりも3~5倍のAIスループットを提供します。
3つ目はNVLinkです。これは、その全対全GPUスイッチでゲームを変える非常に大きなものです。Blackwellシステムによって、72GB200パッケージの144個のGPUを1つのNVLinkドメインに接続することができ、NVLinkの総帯域幅は1ラックで毎秒259テラバイトになります。
これはHopperの約10倍です。1秒あたり259テラバイトというのは、何兆ものトークンに対して何兆ものパラメータ・モデルのトレーニングを行う必要があるためです。
そのため、自然な量のデータをGPUからGPUへと移動させる必要があります。
推論では、低レイテンシー、高スループットの大規模言語モデルのトークン生成にNVLinkが不可欠です。現在、GPUスケールアップ用のNVLink、スーパーコンピューティングやAI専用工場用のQuantum InfiniBand、イーサネット上のAI用のSpectrum-Xという3つのネットワーキング・プラットフォームがあります。NVIDIAのネットワーキングのフットプリントは、以前よりもはるかに大きくなっています。ジェネレーティブAIの勢いは加速している。ジェネレーティブAIのフロンティアモデルメーカーは、モデルの安全性とIQを高めるために、次のAIプラトーへのスケーリングを競っています。また、テキスト、画像、ビデオから3D物理学、化学、生物学に至るまで、より多くのモダリティを理解するために規模を拡大している。チャットボット、コーディングAI、画像ジェネレーターは急速に成長しているが、それは氷山の一角に過ぎない。インターネット・サービスは、大規模なレコメンダー、広告ターゲティング、検索システムにジェネレーティブAIを導入している。AIスタートアップ企業はCSPのクラウド容量を年間数百億ドル消費しており、各国はAIの重要性を認識し、AIインフラに投資している。そしてエヌビディアのAI、エヌビディア・オムニバースは、AIの次の時代、一般的なロボティクスを切り開こうとしている。そして今、エンタープライズAIの波が始まり、私たちは企業のビジネス変革を支援する態勢を整えています。NVIDIA AI Enterpriseプラットフォームは、Nemo、NIMs、NIM Agent Blueprints、AI Foundryで構成されています。私たちのエコシステム・パートナーである世界有数のIT企業は、企業がAIモデルをカスタマイズし、特注のAIアプリケーションを構築するのを支援するために使用されます。そして、企業はNVIDIA AI Enterpriseのランタイムにデプロイすることができ、1GPUあたり年間4,500ドルというNVIDIA AI Enterpriseは、AIをどこにでもデプロイするための特別な価値を持っています。また、NVIDIAのソフトウェアTAMは、CUDA互換GPUのインストールベースが数百万から数千万に増加するにつれて、大きなものになります。コレットが言ったように、NVIDIAのソフトウェアは20億ドルのランレートで今年を終えるでしょう。本日はありがとうございました。
オペレーター
本日のお電話は以上とさせていただきます。
これにて終了とさせていただきます。
この記事が気に入ったらサポートをしてみませんか?