参考和訳 エヌビディア株式会社 (NASDAQ:NVDA) 2024年第1四半期決算カンファレンスコール 2023年5月24日

エヌビディア株式会社 (NASDAQ:NVDA) 2024年第1四半期決算カンファレンスコール 2023年5月24日午後5時00分(日本時間)

企業参加者

シモナ・ヤンコウスキー - IR担当副社長

コレット・クレス(Colette Kress):EVP兼CFO

ジェンセン・フアン(Jensen Huang):共同創業者、CEO、社長

カンファレンスコール参加者

針俊哉 - ゴールドマン・サックス証券

C.J. Muse - エバーコアISI

Vivek Arya - バンクオブアメリカ・メリルリンチ

アーロン・レイカーズ - ウェルズ・ファーゴ証券

ティモシー・アークリ - UBS

Stacy Rasgon - Sanford C. Bernstein & Co.

ジョセフ・ムーア - モルガンスタンレー

ハーラン・サー - JPモルガン

マット・ラムジー - コーウェン

オペレーター

こんにちは。本日の電話会議のオペレーターを務めるデビッドと申します。本日は、エヌビディアの第1四半期決算説明会にお越しいただき、ありがとうございます。本日の会議は録音されています。バックグラウンドノイズを防ぐため、すべての回線はミュートになっています。スピーカーの発言の後、質疑応答があります。[Operator Instructions]

ありがとうございます。シモーナ・ヤンコウスキーさん、会議を始めてください。

シモーナ・ヤンコフスキー

ありがとうございます。皆さんこんにちは、2024年度第1四半期のNVIDIAのカンファレンス・コールへようこそ。本日、NVIDIAから、社長兼最高経営責任者のジェンセン・フアン、および取締役副社長兼最高財務責任者のコレット・クレスが出席しています。この電話会議は、NVIDIAのInvestor Relationsウェブサイトでライブ中継されていることをお伝えしておきます。このウェブキャストは、2024年度第2四半期の財務結果について説明するカンファレンスコールまで、再放送が可能です。本日のコールの内容はNVIDIAの所有物です。当社の事前の書面による同意がない限り、複製または転写することはできません。

この電話会議では、現在の予想に基づく将来の見通しに関する記述を行う場合があります。これらは多くの重大なリスクと不確実性を伴うものであり、当社の実際の結果は大きく異なる可能性があります。当社の将来の業績や事業に影響を与えうる要因については、本日の決算短信、当社の最新のフォーム10-Kおよび10-Q、ならびに当社が証券取引委員会にフォーム8-Kで提出する報告書に記載されている開示をご参照ください。当社のすべての記述は、2023年5月24日の本日現在において、当社が現在入手可能な情報にもとづき作成されています。法律で義務づけられている場合を除き、当社はそのような記述を更新する義務を負わないものとします。

この電話会議において、当社は非GAAP財務指標について説明します。これらの非GAAPベースの財務指標とGAAPベースの財務指標との調整は、当社のウェブサイトに掲載されているCFOコメンタリーでご覧いただけます。

それでは、コレットに電話をお繋ぎします。

コレット・クレス(Colette Kress

ありがとう、シモーナ。第1四半期の売上高は71億9,000万ドルで、前四半期比19%増、前年同期比13%減でした。前期の好調な伸びは、データセンターの売上が記録的で、ゲームとプロフェッショナル・ビジュアライゼーション・プラットフォームがチャネル在庫の修正から脱却したことが要因です。

データセンターについては、全世界のアクセラレーション・コンピューティング・プラットフォームによる力強い成長により、記録的な収益となった42億8000万ドルは、前四半期比18%増、前年同期比14%増となりました。ジェネレーティブAIは、コンピュート要件の指数関数的な伸びを促進し、AIを訓練し展開するための最も汎用性が高く、最もエネルギー効率が高く、最もTCOの低いアプローチであるNVIDIA加速コンピューティングへの移行を加速しています。ジェネレーティブAIは、当社製品に対する需要の大幅な上昇を促し、当社の市場全体で機会と広範なグローバル成長をもたらしました。

私たちの3つの主要な顧客カテゴリー、クラウドサービスプロバイダー(CSP)、コンシューマー・インターネット企業、そして企業について、いくつか説明しましょう。まず、世界中のCSPが、企業や消費者のAIアプリケーションのトレーニングや推論への関心の高まりに応えるため、当社のフラッグシップGPUであるHopperおよびAmpereアーキテクチャの導入に向けた競争を展開しています。複数のCSPが、Microsoft Azure、Google Cloud、Oracle Cloud Infrastructureでのプライベートプレビュー、AWSでの今後の提供、CoreWeaveやLambdaなどの新興GPU専門クラウドプロバイダーでの一般提供など、それぞれのプラットフォームでのH100の提供を発表した。企業のAI導入に加え、これらのCSPは、Generative AIパイオニアからのH100に対する強い需要に応えています。

第二に、消費者向けインターネット企業も、Generative AIやディープラーニングベースの推薦システムの採用の最前線にあり、力強い成長を牽引しています。例えば、Meta社は、H100を搭載したGrand Teton AIスーパーコンピュータを同社のAI制作・研究チーム用に導入しています。

第三に、AIとアクセラレーション・コンピューティングに対する企業の需要は旺盛です。自動車、金融サービス、ヘルスケア、テレコムなどの垂直分野で、AIとアクセラレーテッド・コンピューティングが、顧客のイノベーション・ロードマップや競争力のあるポジショニングに不可欠なものとなっていることがわかります。例えば、ブルームバーグは、センチメント分析、名前付きエンティティ認識、ニュース分類、質問と回答などの金融自然言語処理タスクを支援する500億ドルのパラメータモデルBloombergGPTを導入したと発表しました。

自動車保険会社のCCCインテリジェント・ソリューションズは、修理の見積もりにAIを活用しています。また、AT&Tは、現場技術者が顧客により良いサービスを提供できるように、AIを使用して艦隊のディスパッチを改善しています。NVIDIA AIを使用している他の企業顧客には、ロジスティクスとカスタマーサービスにDeloitte、創薬とタンパク質工学にAmgenがいます。今期は、Hopper世代のAIシステムであるDGX H100の出荷を開始し、お客様がオンプレミスで展開できるようにしました。また、Microsoft Azure、Google Cloud、Oracle Cloud InfrastructureとのパートナーシップによるDGX Cloudの発売により、NVIDIA DGXの約束をクラウドからお客様にお届けしています。

お客様がDGXをオンプレミスで導入しても、DGX Cloud経由で導入しても、NVIDIA Base Commandを含むNVIDIA AIソフトウェアやAIフレームワーク、事前学習済みモデルへのアクセスを得ることができます。システム、アルゴリズム、データ処理、トレーニング方法などの専門知識を広げながら、AIを構築・運用するための青写真を提供します。

また、DGX Cloudで利用できるモデルファウンドリーサービスであるNVIDIA AI Foundationsを発表し、企業が独自のドメイン固有のタスクのために、自社独自のデータでトレーニングしたカスタム大規模言語モデルや生成AIモデルのクレジット構築、改良、運用を可能にしました。大規模言語モデルのNVIDIA NeMo、画像、ビデオ、3DのNVIDIA Picasso、ライフサイエンスのNVIDIA BioNeMoなどがある。

各サービスは、事前訓練されたモデル、データ処理とキュレーションのためのフレームワーク、独自の知識ベースのセクターデータベース、微調整、整列、ガードレールのためのシステム、最適化された推論エンジン、および企業がカスタムユースケースに合わせてモデルを微調整するためのNVIDIAエキスパートによるサポートの6要素からなります。

大手企業向けサービスプラットフォームであるServiceNowは、DGX cloudとNeMoをいち早く採用した企業です。彼らは、ServiceNowプラットフォーム専用のデータで訓練されたカスタム大規模言語モデルを開発しています。私たちのコラボレーションにより、ServiceNowは、IT部門、カスタマーサービスチーム、従業員、開発者向けなど、ServiceNowプラットフォーム上で稼働する世界中の1,000以上の企業で、新しいエンタープライズグレードのジェネレーティブAIを提供することができます。

ジェネレーティブAIは、推論労働力の段階的な増加も促しています。規模が大きく複雑なため、これらのワークフローは高速化を必要としています。4月に発表された最新のMLPerf業界ベンチマークでは、NVIDIAの推論プラットフォームが、多様なワークロードに対応する比類なき汎用性で、業界を桁違いにリードする性能を実現していることが示されました。

GTCでは、お客様が生成AIアプリケーションを大規模に展開できるよう、NVIDIAのAIソフトウェアスタックを活用した4つの主要な新しい推論プラットフォームを発表しました。これらは、AIビデオ用のL4 Tensor Core GPU、Omniverse、およびグラフィックスレンダリング用のL40、大規模言語モデル用のH100 NVL、LLM用のGrace Hopper Superchip、また、推薦システムおよびベクターデータベースです。

Google Cloudは、CSPとして初めて当社のL4推論プラットフォームを採用し、生成AI推論用のG2仮想マシンや、Google Cloud Dataproc、Google Elf、Google AlphaFold、Google CloudのImmersive Streamなどのワークロードで、3DやAR体験をレンダリングするサービスを開始しました。また、Googleは、当社のTriton、およびFrenchサーバーを、Google Kubernetesエンジンおよび同社のクラウドベースのVertex AIプラットフォームと統合しています。

ネットワーク分野では、エヌビディアのメラノックス・ネットワーキング・プラットフォームのような高性能なネットワーキングを必要とするジェネレーティブAIやアクセラレーション・コンピューティングに対する需要が、CSPと企業顧客の双方で強く見られました。汎用CPUインフラに関連する需要は、依然として軟調に推移しています。ジェネレーティブAIアプリケーションの規模と複雑さが増すにつれ、トレーニングや推論に関する膨大な需要に対応するため、データセンター規模で加速コンピューティングを実現するために不可欠な高性能ネットワークが必要となります。

当社の400ギガQuantum-2 InfiniBandプラットフォームは、AI専用インフラのゴールドスタンダードであり、Microsoft Azureのような主要なクラウドや消費者向けインターネットプラットフォームで広く採用されています。インネットワーク・コンピューティング技術と業界唯一のエンドツーエンドのデータセンター規模、最適化されたソフトウェアスタックの組み合わせにより、お客様は日常的に、多額のインフラ投資に対してスループットを20%向上させることができます。

生成的なAIをサポートするために移行するマルチテナントクラウドでは、BlueField-3 DPUとSpectrum-4 Ethernetスイッチングを備えた高速イーサネットプラットフォームが、利用可能な最高のイーサネットネットワークパフォーマンスを提供します。BlueField-3は、Microsoft Azure、Oracle Cloud、CoreWeave、Baiduなど、複数のハイパースケールおよびCSPのお客様に採用され、本番稼働中です。来週、台湾で開催されるCOMPUTEXカンファレンスで、当社の400ギガSpectrum-4アクセラレーションAIネットワーキング・プラットフォームについて詳しく紹介することを楽しみにしています。

最後に、当社のデータセンター向けCPU「Grace」は、お客様とのサンプリングを行っています。今週ドイツで開催された国際スーパーコンピューティング会議において、ブリストル大学は、NVIDIA Grace CPU Superchipを搭載した新しいスーパーコンピュータを発表し、従来のスーパーコンピュータよりも6倍エネルギー効率が良くなっています。これにより、AIやクラウド、スーパーコンピューティングのアプリケーションにおいて、CPUのみとCPU/GPUの両方の機会を持つGraceの勢いが増しています。BlueField-3、Grace、Grace Hopperスーパーチップの来るべき波は、新世代の超エネルギー効率の高い加速データセンターを実現するでしょう。

さて、ゲーミングに話を移しましょう。ゲーム分野の売上高は22億4,000万米ドルで、前四半期比22%増、前年同期比38%減となりました。前期の強い伸びは、ノートブックとデスクトップの両方に向けた40シリーズGeForce RTX GPUの販売によるものです。全体として、最終需要は堅調で、季節性とも一致しており、厳しい個人消費の背景に対する回復力を示しています。GeForce RTX 40シリーズGPUノートPCは、4つのNVIDIAの発明、RTX Path Tracing、DLSS 3 AIレンダリング、Reflex Ultra-Low Latencyレンダリング、Max-Q、エネルギー効率化技術を搭載し、素晴らしいスタートを切ることができました。ゲーマーやクリエイターのために、工業デザイン、パフォーマンス、バッテリー寿命の面で大きな進歩をもたらしています。

また、デスクトップ製品同様、40シリーズノートPCもNVIDIA Studioプラットフォームやソフトウェア技術をサポートしており、クリエイティブなデータサイエンスやAIワークフローのためのアクセラレーションや、コンテンツクリエイターに比類ないツールと機能を提供するOmniverseなどがあります。デスクトップでは、先に発売されたRTX 4090、4080、4070 Ti GPUに加え、RTX 4070をランプ化しました。RTX 4070は、RTX 2070の約3倍の速度があり、当社の大規模なインストールベースに壮大なアップグレードを提供します。

先週は、RTX 4060、4060 Tiという60ファミリーを発表し、わずか299ドルから世界のコアゲーマーに当社の最新アーキテクチャを提供しました。これらのGPUは、メインストリームの価格帯で初めて、最新のゲーム機の2倍の性能を提供します。4060 Tiは本日から、4060は7月に発売される予定です。

ジェネレーティブAIは、開発からランタイムに至るまで、ゲームやコンテンツ制作に変革をもたらすでしょう。今週初めのMicrosoft Build Developer Conferenceでは、NVIDIA RTX GPUを搭載したWindows PCやワークステーションが、その中核でAIを搭載したものになることを紹介しました。NVIDIAとMicrosoftは、WindowsオペレーティングシステムからNVIDIAグラフィックスドライバ、そしてNeMoのLLMフレームワークに及ぶエンドツーエンドのソフトウェアエンジニアリングで協力し、NVIDIA RTX Tensor Core GPUを搭載したWindowsを、生成的AIのための超充電プラットフォームとすることをサポートしてきました。

前四半期には、Xbox PCのゲームをGeForce NOWで提供するためのMicrosoftとの提携を発表しました。このパートナーシップによる最初のゲームであるGears 5は現在提供されており、今後数ヶ月の間にさらに多くのゲームがリリースされる予定です。現在、GeForce NOWには1,600以上のゲームがあり、どのクラウドゲームサービスよりも豊富なコンテンツが提供されています。

プロビジュアライゼーションに移行する。売上高は 2 億 9500 万ドルで、前四半期比 31%増、前年同期比 53%減となりました。前四半期の成長は、モバイルとデスクトップの両方のフォームファクターにおけるワークステーション需要の強化に牽引され、公共部門、ヘルスケア、自動車などの主要な垂直分野で強さを発揮しています。当社は、チャネル在庫の調整は終わったと考えています。ワークステーションにおける当社のAda Lovelace GPUアーキテクチャの立ち上がりは、主要な製品サイクルのキックオフとなりました。

GTCでは、ノートパソコンやデスクトップワークステーション向けに6つの新しいRTX GPUを発表し、今後四半期にさらなる展開が予定されています。Generative AIは、NVIDIA搭載ワークステーションの主要な新しいワークロードです。マイクロソフトとのコラボレーションにより、ウィンドウズはクリエイターやデザイナーにとって理想的なプラットフォームに生まれ変わり、ジェネレーティブAIを活用して彼らの創造性と生産性を高めることができました。

GTCでは、Microsoft Azureで稼働するNVIDIAのフルマネージドサービスであるNVIDIA Omniverse Cloudを発表し、OmniverseアプリケーションのフルセットとNVIDIA OVXインフラを搭載しました。このフルスタックのクラウド環境を使用することで、顧客は産業用メタバースアプリケーションの設計、開発、デプロイ、および管理を行うことができます。NVIDIA Omniverse Cloudは、今年の後半から利用可能になる予定です。

また、Microsoft NVIDIAは、Office 365アプリケーションをOmniverseに接続する予定です。Omniverse Cloudは、設計やエンジニアリングからスマートファクトリー、マーケティング用の3Dコンテンツ生成まで、企業のワークフローをデジタル化するために利用されています。自動車業界は、BMWグループ、[indiscernible]、ゼネラルモーターズ、ジャガー・ランドローバーなどの企業を含む、Omniverseの主要な早期導入企業となっています。

オートモーティブに移る。売上高は2億9600万ドルで、前四半期比1%増、前年同期比114%増となりました。前年同期比での好調な成長は、多くの新エネルギー車におけるNVIDIA DRIVE Orinの立ち上がりによるものです。月に発表したとおり、今後6年間の自動車用設計の受注パイプラインは140億ドルとなり、前年の110億ドルから増加し、今後数年間の継続的な成長の見通しがつきました。

中国の一部のNAVの顧客が、予想以上に伸び悩む需要を反映して生産スケジュールを調整しているため、前四半期比では成長が緩やかになっています。このような状況は今年度も続くと予想しています。当四半期は、ナビの世界的なトップメーカーであるBYDとのパートナーシップを拡大しました。BYDの次世代量産車であるDynastyとOceanシリーズにDRIVE Orinを採用し、2024年に生産を開始する予定です。

損益計算書の残りの部分に移ります。GAAPベースの売上総利益率は64.6%、非GAAPベースの売上総利益率は66.8%でした。売上総利益率はほぼピーク時の水準に回復しており、コスト上昇を吸収し、より価値の高い製品、より多くのソフトウエアを搭載した製品を革新的に提供することで相殺しました。

GAAP基準の営業費用は3%減少、非GAAP基準の営業費用は1%減少し、過去4四半期において営業費用は ほぼ同水準に維持されています。ゲームとプロフェッショナル・ビジュアライゼーションの在庫調整には取り組んでいます。今後、事業への投資を増やすと同時に、営業レバレッジを効かせることができると考えています。

株主には99百万米ドルを現金配当として還元しました。当四半期末現在、2023年12月までの自社株買い取り枠は約70億ドル残っています。

次に、24年度第2四半期の見通しについて説明します。総収入は、プラスマイナス2%で、110億ドルとなる見込みです。この前期の伸びは、生成AIや大規模言語モデルに関連する需要の急増を反映し、主にデータセンターが牽引すると予想しています。この需要により、当社のデータセンターの視認性は数四半期先まで延長され、当社は下半期に向けて大幅に高い供給量を調達しています。

GAAPベースの粗利益率は68.6%、非GAAPベースの粗利益率は70%で、プラスマイナス50bpとなる見込みです。営業費用は、GAAP方式及びNon-GAAP方式でそれぞれ約27億1,000万ドル及び19億ドルとなる見込みです。GAAP方式及びNon-GAAP方式のその他の収入及び支出は、非関連会社に対する投資損益を除き、約9,000万 ドルの利益を見込んでいます。

GAAP方式及びNon-GAAP方式の税率は、個別項目を除き、14%(プラスマイナス1%)となる見込みです。資本的支出は約3億ドルから3億5,000万ドルとなる見込みです。財務の詳細については、CFOのコメントおよび当社のIRサイトで公開しているその他の情報に記載しています。

最後に、今後のイベントをいくつかご紹介します。ジェンセンは、台北でCOMPUTEXの基調講演を今度の月曜日、現地時間で5月29日、アメリカでは日曜日の夕方に直接行います。また、6月6日にはサンフランシスコで開催されるBofA Global Technology Conferenceに参加します。そして、6月7日にはRosenblatt Virtual Technology Summit on The Age of AI、6月12日にはNew Street Future of Transportation Virtual Conferenceに参加します。'24年度第2四半期決算を説明する決算説明会は、8月23日(水)に予定しています。

それでは、冒頭の挨拶は以上とさせていただきます。これより、質疑応答を開始します。オペレーター、質疑応答をお願いします。

質疑応答

オペレーター

ありがとうございました。(最初のご質問は、ゴールドマン・サックスの針俊哉さんからお願いします。どうぞよろしくお願いいたします。

針 俊也

こんにちは、こんにちは。好調な業績、そして素晴らしい見通し、ありがとうございます。データセンターについて1つだけ質問があります。コレットさん、今四半期の前四半期比の増収の大部分はデータセンターによるものだとおっしゃっていました。4月から7月にかけての主要なドライバーは何か、また、より重要なこととして、下半期への見通しについてお聞かせ願えないでしょうか。現時点では供給面での問題が大きいと思いますが、7月期以降の連続的な成長について、サプライチェーンは現時点でどの程度対応できるのでしょうか?ありがとうございました。

コレット・クレス

さて、たくさんの質問がありました。まずは私から、そしてジェンセンの方からコメントをいただけると思います。第1四半期から第2四半期にかけての順次成長についてお話ししますと、当社のジェネレーティブAI大規模言語モデルが検索と需要を牽引しており、当社の消費者向けインターネット企業、CSP、企業、AIスタートアップのいずれにも広く及んでいます。

また、Hopperの最新アーキテクチャとAmpereのアーキテクチャ、両方のアーキテクチャに関心が集まっています。これは、私たちが通常、両アーキテクチャを同時に販売することが多いので、驚くことではありません。また、ディープレコメンダーが成長を牽引している重要な分野でもあります。また、コンピューティングとネットワーキングの両事業の成長も期待できます。以上が、第2四半期に発表したガイダンスに盛り込まれた重要な事項です。

また、冒頭の挨拶で、当四半期の供給については、現在取り組んでいるところですが、下半期に ついてもかなりの量の供給を調達しています。これは、様々なお客様から寄せられる需要に対応するためのものです。

大企業向けのプラットフォーム構築はもちろん、CSPやコンシューマー向けAI企業など、さまざまな企業で導入が進んでいます。そのため、データセンターの需要はおそらく数四半期先まで見通しが立っており、下期に向けて相当量の供給を迅速に調達することにつながっています。ここで一旦中断し、ジェンセンからもう少し補足があるかどうか確認します。

ジェンセン・フアン

素晴らしい色だと思いました。ありがとうございます。

オペレーター

次はEvercore ISIのC.J.ミューズにお願いします。お待たせしました。

C.J.ミューズ

はい。こんにちは。質問に答えていただき、ありがとうございます。データセンターについては、前四半期比で実質的に倍増していると思いますが、2つの自然な疑問が浮かんできました。1つ目は、AIをサポートするためにサーバーを加速させるという点で、私たちはどのような状況にあるのでしょうか?また、その一環として、TSMCやその他のパートナーとの間で、より長いサイクルタイムに対応するために、彼らのコミットメントをどのように管理し、今後数年間、リードタイムをどのように管理したいのか、需要と供給のベストマッチングをどのように考えているのか。ありがとうございました。

ジェンセン・フアン

質問ありがとうございます。まず、逆から説明します。ChatGPTの瞬間が訪れたとき、AmpereもHopperもフル生産していたことを思い出してください。そして、大規模な言語モデルの技術から、チャットボットをベースにした製品やサービスへと移行する方法を、皆が結晶化させることができたのです。

強化学習による人間のフィードバック、独自の知識のためのナレッジベクターデータベース、検索への接続など、ガードレールやアライメントシステムの統合は、本当に素晴らしい方法で実現しました。そして、私たちはすでにフル生産体制に入ったのです。NVIDIAのサプライチェーンの流れ、私たちのサプライチェーンは、ご存知のように非常に重要です。

そして、私たちはスーパーコンピュータを大量に製造しており、これらは巨大なシステムであり、それを大量に製造しています。もちろんGPUも含まれますが、当社のGPUには、システムボードに3万5千個の他の部品があります。ネットワーク、光ファイバー、トランシーバー、NIC、スマートNIC、スイッチなど、データセンターを立ち上げるためには、これらすべてが揃わなければならないのです。そのため、いざというときにはすでにフル稼働していました。コレットが言ったように、下期は調達量を大幅に増やさなければなりませんでした。

さて、もっと大きな視点で話をさせてください。なぜ世界中のデータセンターがアクセラレーション・コンピューティングに移行しているのか。アクセラレイテッド・コンピューティングはフルスタックの問題であることは以前から知られていましたし、私がその話をするのも聞いていると思います。

データセンターの主要なアプリケーションのほとんどを高速化することが十分に可能です。データセンターのエネルギー消費量とコストを大幅に削減することができるのです。そのためには、ソフトウェアやシステム構築など、あらゆる面でコストがかかりますが、15年間はそれができませんでした。

しかし、私たちは15年間、それを手に入れることができませんでした。そして、ジェネレーティブAIが登場したとき、以前から準備されていたこのコンピューティング・プラットフォームのキラーアプリを生み出すきっかけとなりました。そして今、私たちは2つの同時進行の転換期を迎えています。世界の1兆ドル規模のデータセンターは、現在ほぼCPUで占められており、1兆ドル、年間2500億ドル、それはもちろん成長しています。しかし、この4年間で、1兆ドル相当のインフラが導入されたと呼んでください。そして、それはすべてCPUとダムNIC(ph)に完全に基づいています。基本的に非加速です。

今後、世界中のデータセンターで情報を生成する主要なワークロードがジェネレーティブAIになることは明らかで、アクセラレーション・コンピューティングがエネルギー効率に優れていることから、データセンターの予算はアクセラレーション・コンピューティングに劇的にシフトすることになります。私たちは今、まさにその瞬間を迎えています。世界のデータセンターの設備投資予算は限られていますが、同時に、世界のデータセンターの再整備を求める驚くべき注文があります。

つまり、世界のデータセンターを基本的にリサイクルまたは再生し、アクセラレイテッド・コンピューティングとして構築する、10年単位の移行が始まっているのです。データセンターは、従来のコンピューティングから、スマートNICやスマートスイッチ、そしてもちろんGPUを搭載したアクセラレーテッド・コンピューティングへと劇的に変化し、そのワークロードは主にジェネレーティブAIになるでしょうね。

運営者

次の質問は、BofA証券のVivek Aryaさんです。どうぞよろしくお願いいたします。

ヴィヴェック・アーヤ

ご質問ありがとうございます。データセンターの売上が第3四半期、第4四半期と順次伸びていくのか、それとも第2四半期の水準が維持されるのか、はっきりさせたいのですが。それを明確にしたかったのです。それから、ジェンセンの質問ですが、この非常に強い需要環境を考えると、競争環境はどうなるのでしょうか?カスタムASICの競争は激化するのでしょうか?他のGPUソリューションや他の種類のソリューションの競争は激化するのでしょうか?今後2~3年の間に、競争環境はどのように変化していくとお考えでしょうか?

コレット・クレス

ええ、Vivekです。質問をありがとうございます。もう少し色をつけられるかどうか確認させてください。私たちは、下半期の供給量は上半期よりも大幅に多くなると考えています。ですから、この前四半期に見たばかりの需要や、第2四半期の予測にある需要だけでなく、下半期に何かを見ることを計画しています。ただ、ここで注意しなければならないことがあります。しかし、私たちはその後半についてガイドするためにここにいるのではありません。しかし、下半期は上半期に比べ大幅に増加する予定です。

ジェンセン・フアン

競争についてですが、あらゆる方向から競争があります。スタートアップは、本当に資金力のある革新的なスタートアップで、世界中に数え切れないほどあります。また、既存の半導体メーカーとの競争もあります。社内プロジェクトを持つCSPとの競争もあります。これらのほとんどは、皆さんもご存知の通りです。このように、私たちは常に競争を意識していますし、常に競争を受けているのです。しかし、NVIDIAの核となる価値提案は、「最も低コストなソリューションである」ということです。TCOが最も低いソリューションです。

その理由は、アクセラレーション・コンピューティングは、私がよく話す2つのこと、つまり、フルスタックの問題であり、フルスタックの挑戦であり、すべてのソフトウェア、すべてのライブラリ、すべてのアルゴリズムをエンジニアリングし、それらを統合してフレームワークを最適化し、1隻だけではなくデータセンター全体のアーキテクチャのために最適化しなければならない、フレームワークに至るまで、すべてのモデルに至るまで。また、エンジニアリングや分散コンピューティング、基礎的なコンピュータサイエンスの仕事は、本当に並大抵のものではありません。私たちが知る限り、最も困難なコンピューティングです。

そのため、まず第一に、フルスタックでの挑戦となり、全体にわたって最適化しなければなりませんし、気の遠くなるような数のスタックにわたって最適化しなければなりません。私たちには400ものアクセラレーション・ライブラリがあります。ご存知のように、私たちがアクセラレーションを行うライブラリやフレームワークの量は、かなり気の遠くなるような量です。

これは、コンピュータがデータセンターであるとか、データセンターがコンピュータであるとか、チップではなくデータセンターであるといった考え方です。この特殊な環境では、ネットワーク・オペレーティング・システム、分散コンピューティング・エンジン、ネットワーク機器、スイッチ、コンピューティング・システム、コンピューティング・ファブリックのアーキテクチャに対する理解、これらシステム全体があなたのコンピュータであり、それを運用しようとしているのです。最高のパフォーマンスを得るためには、フルスタックを理解し、データセンターの規模を理解する必要がありますし、それがアクセラレーション・コンピューティングです。

2つ目は、「利用率」です。これは、高速化できるアプリケーションの種類と、当社のアーキテクチャの多様性によって、利用率が高く保たれることを意味します。もし、1つのことしかできず、信じられないほど高速に処理できるのであれば、データセンターはほとんど利用されておらず、その規模を拡大することは困難です。つまり、ユニバーサルGPUは多くのスタックを高速化するため、利用率が非常に高くなるのです。そのため、1つ目はスループットで、これはソフトウェア--ソフトウェア集約型の問題であり、データセンターのアーキテクチャの問題です。2つ目は利用効率の問題で、3つ目はデータセンターに関する専門知識です。私たちは、自社で5つのデータセンターを建設し、世界中の企業のデータセンター建設を支援してきました。また、私たちのアーキテクチャを世界中のクラウドに統合しています。

製品の納品から導入時の立ち上げまで、データセンターの運用にかかる時間は、下手すると数ヶ月かかることもあります。スーパーコンピュータの立ち上げでは、世界最大級のスーパーコンピュータが1年半ほど前に設置され、現在オンラインになりつつあります。

当社では、運用開始までの期間を数週間で計測しています。また、データセンターやスーパーコンピューターを製品化したのですが、その際のチームの専門知識は素晴らしいものでした。ですから、私たちの価値提案は、最終的には、これらの技術をすべてインフラに反映させ、可能な限り低いコストで最高のスループットを実現することです。ですから、私たちの市場は、もちろん非常に競争が激しく、規模も大きいです。しかし、その挑戦は本当に素晴らしいものです。

オペレーター

次は、ウェルズ・ファーゴのアーロン・レイカーズにお願いします。回線は開いています。

アーロン・レイカーズ

はい。ご質問をいただきありがとうございます。また、四半期決算おめでとうございます。データセンター事業のさまざまな成長ドライバーについて今後考えていく中で、コレット、クラウドサービス契約の拡大が続いていることを考えると、ソフトウェアのマネタイズ効果についてどう考えるべきかと思うのですが。AIエンタープライズソフトウェアスイートやその他のソフトウェアのみの収益のドライバーについて、そのアプローチについて、私たちはどのような状況にあると考えているのでしょうか?

コレット・クレス

ご質問ありがとうございます。ソフトウェアは、私たちの加速度的なプラットフォームにとって本当に重要です。私たちの最も近いアーキテクチャや基本的に私たちが持っているすべての製品に含まれているソフトウェアのかなりの量を持っているだけではありません。私たちは現在、お客様がジェネレーティブAIやアクセラレーテッド・コンピューティングの仕事を始めるのに役立つさまざまなモデルを持っています。DGXクラウドやサービスの提供、モデル構築の支援、あるいはNVIDIA AIエンタープライズの重要性について説明しましたが、基本的にはAIのためのオペレーティングシステムです。このように、アーキテクチャやインフラ、そしてこのサービスの可用性、マネタイズ能力など、あらゆるものが今後も成長し続けるはずです。ジェンセンが補足する必要があれば、この場をお借りして説明します。

ジェンセン・ホアン(Jensen Huang

そうですね。生成AIとCSPは、モデルのトレーニング、モデルの改良、モデルのデプロイのいずれにおいても、リアルタイムでその成長を確認することができます。先ほどコレットが言ったように、推論は今やアクセラレーション・コンピューティングの主要な推進力となっています。

新しいソフトウェアのスタックを必要とするセグメントは2つあり、エンタープライズとインダストリーの2つです。エンタープライズでは、新しいソフトウェアのスタックが必要です。なぜなら、多くの企業は、大規模な言語モデルであれ、これまで述べてきたようなすべての機能、適応能力、独自のユースケースや独自のデータに対して、独自の原則や運用ドメインに合わせる能力を持つ必要があるからです。

それをハイパフォーマンス・コンピューティングのサンドボックスで行えるようにするのが、私たちDGX Cloudであり、モデルを作成します。そして、チャットボットやAIをどのクラウドにも導入したいと思うでしょう。

企業向けには、カスタムモデルの作成を支援するNVIDIA AI FoundationとNVIDIA AI Enterpriseがあります。NVIDIA AI Enterpriseは、世界で唯一のアクセラレーションスタック、GPUアクセラレーションスタックで、エンタープライズセーフで、エンタープライズサポートされています。常にパッチを当てる必要があり、NVIDIA AI Enterpriseを構築する4,000種類のパッケージがあり、AIワークフロー全体のオペレーティングエンジン、エンドツーエンドのオペレーティングエンジンに相当します。

データの取り込みからデータ処理まで、この種のものとしては唯一のものです。明らかに、AIモデルを訓練するためには、大量のデータを処理し、パッケージ化し、キュレーションし、整列させる必要があります。このようなデータ量は、計算時間の40%、50%、60%を消費する可能性があり、データ処理は非常に大きな問題です。

そして、2つ目の側面は、モデルのトレーニング、モデルの改良、3つ目は、推論用のモデルのデプロイです。NVIDIA AI Enterpriseは、これら4,000のソフトウェアパッケージのすべてを継続的にサポートし、パッチやセキュリティパッチを適用しています。エンジンを導入したい企業にとって、Red Hat Linuxを導入したいのと同じように、これは信じられないほど複雑なソフトウェアで、あらゆるクラウドやオンプレミスに導入するためには、安全でなければならず、サポートされていなければなりません。それで、NVIDIA AI Enterpriseが2点目です。

3つ目はOmniverseです。AIを倫理に合わせる必要があることに人々が気づき始めたように、ロボット工学も同じで、AIを物理に合わせる必要があります。そして、倫理にAIを合わせるには、強化学習ヒューマンフィードバックという技術があります。産業応用やロボティクスの場合は、強化学習Omniverseのフィードバックです。そしてOmniverseは、ロボットアプリケーションや産業におけるソフトウェア定義に欠かせないエンジンです。そのため、Omniverseはクラウドサービスプラットフォームである必要もあります。

私たちのソフトウェアスタック、AI Foundation、AI Enterprise、Omniverseの3つのソフトウェアスタックは、DGX Cloudとパートナーシップを結んでいる世界中のすべてのクラウドで動作します。Azureは、AIとOmniverseの両方でパートナーシップを結んでいます。GTPとオラクルとは、DGX CloudでAIに関する素晴らしいパートナーシップを結んでおり、AI Enterpriseはこれら3社すべてに統合されています。クラウドを越えて世界の企業や産業にAIの範囲を広げるためには、2種類の新しいソフトウェアスタックが必要であり、それを実現するためにクラウドに置き、世界のCSPクラウドに統合することによって、すべてのクラウドベンダーのセールス、マーケティングチーム、リーダーシップチームと提携できる素晴らしい方法だと思います。

オペレーター

次にUBSのティモシー・アルクリにお願いします。回線はオープンです。

ティム・アーキュリ

どうもありがとうございます。質問があり、また明確化したいこともありました。まず、InfiniBandとEthernetの比較についてですが、その議論と今後の展開についてお聞かせください。AIにはInfiniBandの低遅延が必要だと思いますが、コアコンピュートサイドで出荷しているInfiniBandソリューションの接続率や、コンピュートサイドと同じようにイーサネットを駆逐しているのかどうかについて、教えてください。それから、コレットさん、株式の買い戻しはなかったということですが、株式の買い戻しにはまだ約70億ドルの資金が必要だったようですね。これは単なるタイミングだったのでしょうか?ありがとうございます。

ジェンセン・フアン

コレット、あなたからお願いします。質問をお受けください。

コレット・クレス

その通りでございます。私たちは、70億ドルの自社株買いのためのリカレント・オーソライズを用意しています。前四半期は何も買い戻しませんでしたが、私たちは臨機応変に買い戻しを行いますので、今後とも検討していきたいと思います。ありがとうございました。

ジェンスン・フアン

InfiniBandとEthernetは、データセンターでの用途が異なるということですね。そうですね。両者にはそれぞれ適材適所があります。InfiniBandは記録的な四半期を過ごしました。今年も記録的な大台に乗せるつもりです。NVIDIAのQuantum InfiniBandは、非常に優れたロードマップを持っています。本当にすごいことになりそうです。しかし、この2つのネットワークは非常に異なっています。InfiniBandは、言ってみればAI工場向けに設計されています。そのデータセンターが、特定のユースケースで数人分のアプリケーションを実行し、それを継続的に行っていて、そのインフラに5億ドルというコストがかかるとしたら、それはどうでしょう。

InfiniBandとEthernetの違いは、全体のスループットで15%から20%になる可能性があります。もし5億ドルをインフラに費やしたとして、その差が10%から20%で、それが1億ドルであれば、InfiniBandは基本的に無料になります。それが、人々が使う理由です。InfiniBandは事実上無料なのです。データセンターのスループットの差は、無視できないほど大きく、その1つのアプリケーションのために使っているわけです。データセンターは小さなジョブの集まりで、何百万人もの人々が共有しています。

そうなると、イーサネットは本当に答えが出るのでしょうか?クラウドが生成的なAIクラウドになりつつある、真ん中の新しいセグメントがあるんです。それ自体はAI工場だけではありません。しかし、マルチテナントクラウドであることに変わりはなく、生成的なAIワークロードを実行することを望んでいます。この新しいセグメントは素晴らしい機会であり、COMPUTEXでは、前回のGTCで言及した。COMPUTEXでは、このセグメントのための主要な製品ラインを発表する予定です。それは、イーサネットにフォーカスしたジェネレーティブAIアプリケーションタイプのクラウドです。しかし、InfiniBandは素晴らしく好調で、前四半期比前年比では記録的な数字を記録しています。

オペレーター

次はBernstein ResearchのStacy Rasgonにお願いします。どうぞよろしくお願いいたします。

ステイシー・ラスゴン(Stacy Rasgon

こんにちは、皆さん。私の質問に答えていただき、ありがとうございます。生成AIの推論とトレーニングについて質問させてください。推論が非常に大きな機会であるということですが、これには2つの部分があると思います。これには2つのサブパートがあると思います。それは、推論が基本的に使用量に応じてスケールするのに対して、トレーニングは1回で完了するということです。また、トレーニングよりも影響力が大きいのか、あるいはその逆なのか、大きいとしたらどの程度なのか、定性的にでもいいので教えてください。生成AIにおけるこの2つのワークロードについて、5倍なのか10倍なのか、何か教えていただけると助かります。

ジェンスン・フアン

そうですね、逆算して考えてみます。トレーニングに終わりはありません。デプロイするたびに、新しいデータを収集することになります。新しいデータを集めたら、その新しいデータでトレーニングを行います。だから、トレーニングに終わりはないのです。大規模な言語モデルを補強するベクターデータベースの作成と処理に終わりがないのです。収集した構造化・非構造化データをすべてベクトル化しても、終わりがありません。

レコメンダーシステム、大規模言語モデル、ベクターデータベースのいずれを構築するにしても、これらはおそらく、未来のコンピューティングの3つのコアエンジンの3大アプリケーションと言えるかもしれません。他にもいろいろありますが、明らかにこの3つは非常に重要なものです。これらは常に稼働しています。

今後、ますます多くの企業が、インテリジェンスのための工場、つまりインテリジェンス工場を持つことになるでしょう。

推論の部分は、あらゆるアプリケーションに接続できるオープンAPIや、ワークフローに統合されたAPIがあります。しかし、あらゆる種類のAPIが社内に100個は存在することになります。そして、企業がワークフローに接続したり、アプリケーションとして使用できるような、生成的なAI APIを大量に作成することになります。もちろん、インターネット・サービス・カンパニーも登場します。

このように、AIファクトリーという分野が非常に大きく成長すると同時に、以前は存在しなかった市場が、APIを使ったAI推論の弱点によって、指数関数的に成長しているのを目の当たりにしているのではないでしょうか。結局、単純に考えると、世界には1兆ドルのデータセンターが設置されていて、かつては100%CPUだった。将来的には、ムーアの法則の終焉というのは、いろんなところで言われていますし、今年もISCの基調講演で言われていましたね。

汎用コンピューティングではデータセンターを合理的にスケールアウトすることはできず、アクセラレーション・コンピューティングが前進する道であり、現在ではキラーアプリが登場し、生成的なAIが登場していることを多くの場所で目にしました。各四半期の設備投資予算はジェネレーティブAIに大きく傾き、設備投資予算で使用されるGPUの数から、加速スイッチや加速ネット、それらをつなぐネットワークチップまで、あらゆる場所で加速コンピューティングインフラを導入することになります。今後4年、5年、10年の間に、1兆ドルのほとんどは、データセンターの成長を調整するために補正され、その大部分はジェネレーティブAIになると思いますので、それを考えるのが最も簡単な方法でしょう。

オペレーター

次は、モルガン・スタンレーのジョセフ・ムーアです。お待たせしました。

ジョセフ・ムーア

はい。ありがとうございます。推論にフォーカスしているという点で、フォローアップをしたいと思います。大規模な言語モデルに関する大きなチャンスであることは明らかですが、クラウドのお客様は、クエリーあたりのコストを非常に大きく削減しようとしていることも話題になっています。GTCで発表された特殊な保険商品もその一環でしょうか。また、クエリーあたりのコストを下げるために、どのようにお客様をサポートするつもりなのでしょうか?

ジェンセン・フアン(Jensen Huang

そうですね。素晴らしい質問ですね。大規模な言語モデルを構築することから始め、その大規模な言語モデルを使って、中、小、極小のサイズに絞り込むことができます。小さなサイズのものは、携帯電話やPCなどに入れることができ、どれも良いものです。しかし、ゼロショットや大きな言語モデルの一般化可能性は、明らかに大きなもののほうが汎用性が高く、もっとすごいことができます。そして、大きな言語モデルは、小さな言語モデルに良いAIになるための方法を教えることができます。ですから、まずは非常に大きなものを作ることから始めます。そして、小型のAIを大量に訓練する必要があります。

これが、推論にさまざまな大きさのものを用意した理由です。L4、L40、H100 NBL、H100 HGX、そしてNVLinkを搭載したH100マルチノードを発表しましたが、このように、好きな種類のモデルサイズを用意することができるのです。もう1つ重要なのは、これらはモデルですが、最終的にはアプリケーションに接続されているということです。アプリケーションは、画像入力、ビデオ出力、ビデオ入力、テキスト出力、画像入力、タンパク質出力、テキスト入力、3D出力、ビデオ入力、将来的には3Dグラフィックス出力などが考えられます。

つまり、入力と出力には、多くの前処理と後処理が必要なのです。前処理と後処理を無視することはできない。これは、特化型チップの議論が破綻する原因の1つで、モデル自体の長さが、推論処理全体のデータの25%程度に過ぎないからです。残りの部分は、前処理や後処理、セキュリティ、デコードなど、あらゆる種類の処理に関わるものです。

ですから、推論のマルチモダリティ、推論のマルチダイバーシティは、オンプレミスのクラウドで行われることになると思っています。マルチクラウドで行われるでしょう。それが、私たちがAIエンタープライズをすべてのクラウドで展開している理由です。先日発表したDellとの素晴らしいパートナーシップ「project Helix」は、サードパーティーのサービスに統合される予定です。また、ServiceNowやAdobeとも素晴らしいパートナーシップを結んでおり、彼らは生成的なAI機能を大量に生み出す予定です。このように、ジェネレーティブAIの領域は非常に広いので、その全領域に対応するためには、今説明したような非常に基本的な能力が必要なのです。

オペレーター

次はJPモルガンのハーラン・サーにお願いします。どうぞよろしくお願いいたします。

ハーラン・サー

こんにちは、好調な業績と業務執行におめでとうございます。今日はネットワーク製品に焦点をあてていただき、本当にありがとうございました。ネットワークは、コンピュート・プラットフォームの性能を最大限に引き出すために不可欠な要素です。データセンター・ネットワーキング・ビジネスは、四半期あたり10億ドル以上の収益を牽引していると思いますが、これは3年前、メラノックスを買収したときの2.5倍の成長です。

しかし、InfiniBandやEthernetソリューション、加速されたコンピュート・プラットフォームが非常に高い評価を得ていることを考えると、ネットワーキングのランレートはコンピュート出荷に見合ったものとなっているのでしょうか。また、コンピュートの複雑性やデータセット、低レイテンシーやトラフィックの予測可能性などの要件の大幅な増加に対応するため、今後さらにネットワーク帯域を確保するために、チームはどのような取り組みを行っていますか?

ジェンスン・フアン

はい、ハーランです。本当にありがとうございます。AIについて考える人はほとんど皆、アクセラレータ・チップのことを考えますが、実は、それはほとんど完全に的外れなことなのです。アクセラレーション・コンピューティングとは、スタック、ソフトウェア、ネットワーキングのことで、私たちはDOCAというネットワーキング・スタックを非常に早くから発表し、Magnum IOというアクセラレーション・ライブラリを提供しています。この2つのソフトウェアは、当社の至宝のようなものです。理解しにくいので誰も話題にしませんが、このソフトウェアのおかげで、10台、1000台のGPUを接続することが可能になりました。

インフラであるデータセンターのオペレーティング・システムが非常に優れていなければ、どうやって何千ものGPUを接続することができるのでしょう。それが、私たちが社内でネットワークにこだわる理由です。そのため、私たちは社内でネットワークに力を入れています。

NVLinkは、超低レイテンシーのコンピューティング・ファブリックで、ネットワーク・パッケージではなくメモリ参照を使って通信を行います。そして、NVLinkを複数のGPUの内部で接続し、GPUを超えることを表現しています。これについては、数日後のCOMPUTEXでもっと詳しくお話しします。そして、NIC、SmartNIC BlueField-3、スイッチ、エンドツーエンドで最適化されたすべての光ファイバーを含むInfiniBandに接続されます。これらは、信じられないほどのラインレートで動作しています。

さらにその先、スマートなAI工場、スマートな事実、このAI工場をコンピューティング・ファブリックに接続したい場合、COMPUTEXで発表するまったく新しいタイプのイーサネットがあります。このGPUやコンピューティング・ユニットをすべて接続するコンピューティング・ファブリックの領域全体、ネットワーク、スイッチ、ソフトウェアスタックは、非常に複雑になっています。ですから、私たちは......ご理解いただけたようで嬉しいのですが、この......私たちは特に、全体をあるべき姿のコンピューティング・プラットフォームとして考えているので、それを分割していません。

世界中のデータセンターにコンポーネントとして販売し、彼らが好きなスタイルやアーキテクチャに統合しても、私たちのソフトウェアスタックを動かすことができるようにしています。しかし、そのおかげで、NVIDIAのコンピューティング・アーキテクチャは、クラウドからオンプレミス、エッジから5Gまで、世界中のあらゆるデータセンターに統合することが可能になりました。

オペレーター

最後の質問は、TDコーウェンのマット・ラムジーからです。どうぞよろしくお願いいたします。

マット・ラムジー

どうもありがとうございました。Jensen、そしてチーム全員、おめでとうございます。DGX Cloudについて、少し掘り下げてみたいと思います。ハイパースケールのパートナーにハードウェアを販売し、それを自分のビジネス用にリースバックするというもので、あなた方は舞台裏でしばらくこれに取り組んできました。コレットが述べたように、今後数四半期にわたり、データセンター事業が高い認知度を持つようになることを期待しています。

ハイパースケールの顧客がファーストパーティーの社内ワークロード用に購入する場合と、サードパーティーの顧客向けに購入する場合とが混在しているようですが、データセンターにおける今後の大きなアップサイドは、DGX Cloudをサポートする可能性のあるシステムで、そのビジネスの可能性について、立ち上げてから学んだことを少し話していただけませんか。ありがとうございます。

ジェンセン・フアン(Jensen Huang

はい、ありがとうございます。ありがとう、マット。理想的なシナリオは、10%のNVIDIA DGX Cloudと90%のCSPのクラウドのような構成です。その理由は、当社のDGX Cloudは、NVIDIAスタックが純粋なNVIDIAスタックだからです。私たちが好むように設計されており、可能な限り最高のパフォーマンスを実現します。そのため、CSPと深く連携し、最高性能のインフラを構築することができるのです、第一に。

例えば、私たちはAzureと提携し、世界の産業にOmniverseクラウドを提供することができます。このようなシステム、つまりコンピューティング・スタックは、世界には存在しません。ジェネレーティブAI、3D、物理演算、大規模なデータベース、高速ネットワーク、低遅延ネットワーク、このようなバーチャルな産業用仮想世界は、これまで存在したことがありません。

そこで、私たちはマイクロソフトと提携し、Azureクラウドの中にOmniverseクラウドを作りました。これにより、私たちは2つ目の利点として、新しいアプリケーションを一緒に作り、新しい市場を一緒に開発することができるようになりました。そして、私たちは1つのチームとしてマーケティングを行い、私たちのコンピューティング・プラットフォームをお客様に使っていただくことで、お客様は私たちをクラウドに置くことで利益を得ます。また、AzureやGCP、OCIが持つデータ量やサービス、セキュリティサービスなど、あらゆる素晴らしいものをOmniverse cloudを通じて瞬時に利用できるようになります。つまり、大きなメリットがあるのです。

また、顧客にとっても、NVIDIAのクラウドがこうした初期のアプリケーションに対応することで、どこでもできるようになります。NVIDIAのAIエンタープライズ、NVIDIA AIファウンデーションは、すべてのクラウドで1つの標準スタックが稼働します。また、長期的には、少し時間がかかりますが、NVIDIA OmniverseがCSPのクラウドで稼働することになります。なるほど。

私たちの目標は、新しい市場や新しいアプリケーションを創造するために深く提携し、オンプレミスを含むあらゆる場所で実行できる柔軟性をお客様に提供することで、アーキテクチャを推進することでした。現在DGX Cloudを導入している3つのCSPとのパートナーシップは、その営業力、マーケティングチーム、リーダーシップチームが実に見事なものです。とてもうまくいっています。

運営者

ありがとうございました。それでは、最後にジェンセン・フアンにご挨拶をお願いします。

ジェンセン・フアン(Jensen Huang

コンピュータ業界は、アクセラレーテッド・コンピューティングとジェネレイティブAIという2つの転換期を同時に迎えている。CPUのスケーリングは鈍化しているが、コンピューティングの需要は旺盛で、今はジェネレーティブAIが超高速化されている。NVIDIAが開拓したフルスタック、データセンター規模のアプローチであるアクセラレーテッド・コンピューティングが最善の道である。世界のデータセンター・インフラには、前時代の汎用コンピューティング方式に基づき、1兆ドルの設備があります。企業は今、生成的AI時代の加速コンピューティングの導入を競っています。今後10年間で、世界のほとんどのデータセンターがアクセラレーション化されるでしょう。

急増する需要に対応するため、供給量を大幅に増やしているのです。大規模な言語モデルは、多くの形態で符号化された情報を学習することができます。大規模な言語モデルに導かれ、生成AIモデルは驚くべきコンテンツを生成することができます。微調整、ガードレール、指導原則への整合、事実の根拠となるモデルによって、生成AIは研究所から現れ、産業応用への道を歩んでいます。

クラウドやインターネットサービスプロバイダとともに規模を拡大しながら、私たちは世界最大の企業向けのプラットフォームも構築しています。ServiceNowやAdobeのような主要なエンタープライズ・プラットフォームであれ、NVIDIA AI Foundationsのようなオーダーメイドであれ、私たちのCSPパートナー内であれ、Dell Helixのオンプレミスであれ、企業がドメインの専門知識とデータを活用して安全かつ確実に生成的AIを活用できるようにすることができます。

私たちは、H100、私たちのGraceとGrace Hopperスーパーチップ、私たちのBlueField-3とSpectrum 4ネットワーキングプラットフォームなど、今後四半期に製品の波を立ち上げているところである。これらはすべて生産が開始されています。これらの製品は、エネルギー効率に優れた持続可能なコンピューティングであるデータセンター規模のコンピューティングを実現するのに役立つことでしょう。来週のCOMPUTEXにご参加いただければ、次の展開をお見せすることができます。ありがとうございました。

オペレーター

これにて本日のカンファレンスコールは終了です。これにて終了とさせていただきます。

ここから先は

0字

¥ 200

この記事が気に入ったらチップで応援してみませんか?