NVIDIA Corporation (NVDA) 2024 年第 4 四半期決算説明会の議事録
NVIDIA Corporation (NVDA) 2024 年第 4 四半期決算説明会の議事録
2024年2月21日 20:59 ETNVIDIA Corporation (NVDA)株式, NVDA:CA株式17
従う
第4四半期: 2024-02-21 決算サマリー
Play Call10-K (通話 10-K を再生)
5.16ドルのEPSが0.52ドルを上回っています|$22.10B(前年比265.28%)の収益は$1.55Bを上回っています
NVIDIA Corporation (NASDAQ:NVDA) 2024 年第 4 四半期決算電話会議 2024 年 2 月 21 日午後 5:00 (米国東部標準時)
参加企業
Simona Jankowski - IR担当副社長
Colette Kress - EVP 兼 CFO
Jensen Huang - 社長兼CEO
電話会議参加者
針 俊亜 - ゴールドマン・サックス
ジョー・ムーア:モルガン・スタンレー
ステイシー・ラスゴン - バーンスタイン・リサーチ
マット・ラムゼイ - TDコーウェン
ティモシー・アルクーリ - UBS
ベン・ライツェス - メリウス・リサーチ
CJミューズ - カンターフィッツジェラルド
アーロンレイカーズ - ウェルズファーゴ
ハーシュ・クマール - パイパー・サンドラー
演算子
こんにちは。私の名前はロブで、今日は会議のオペレーターになります。この度、NVIDIAの第4四半期決算説明会に皆様をお迎えいたします。バックグラウンドノイズを防ぐために、すべてのラインがミュートになっています。登壇者の挨拶の後、質疑応答を行います。[オペレーターの指示]
ありがとうございます。シモーナ・ヤンコフスキさん、会議を始めてください。
シモーナ Jan2
ありがとうございます。皆さん、こんにちは、2024 年度第 4 四半期および会計年度の NVIDIA の電話会議へようこそ。本日は、NVIDIA から社長兼最高経営責任者の Jen-Hsun Huang と、エグゼクティブ バイス プレジデント兼最高財務責任者の Colette Kress が参加します。
この電話会議は、NVIDIA の投資家向け広報 Web サイトでライブ配信されます。ウェブキャストは、2025年度第1四半期の決算について話し合う電話会議まで再生できます。本日の電話会議の内容は、NVIDIAの所有物です。当社の書面による事前の同意なしに複製または転写することはできません。
この電話会議では、現在の予想に基づいて将来の見通しに関する記述を行う場合があります。これらは多くの重大なリスクと不確実性を伴い、実際の結果は大きく異なる可能性があります。当社の将来の業績および事業に影響を及ぼす可能性のある要因については、本日の決算発表の開示、最新のフォーム10-Kおよび10-Q、およびフォーム8-Kで米国証券取引委員会に提出する可能性のある報告書を参照してください。
すべての記述は、本日(2024年2月21日)時点で、現在入手可能な情報に基づいて作成されています。法律で義務付けられている場合を除き、当社はそのような声明を更新する義務を負いません。この電話会議では、非GAAPベースの財務指標について議論します。これらの非GAAPベースの財務指標とGAAPベースの財務指標の調整については、当社のウェブサイトに掲載されているCFOのコメントをご覧ください。
それでは、コレットに電話を移しましょう。
コレット・クレス
ありがとう、シモーナ。第4四半期も過去最高を記録しました。売上高は前四半期比22%増、前年同期比265%増の221億ドルで、当社の見通しである200億ドルを大きく上回りました。2024年度の売上高は609億ドルで、前年比126%増となりました。
まずはデータセンターから。2024年度のデータセンターの収益は475億ドルで、前年度の3倍以上となりました。世界は新しいコンピューティング時代の転換点に達しています。1兆ドル規模のデータセンター・インフラストラクチャのインストール・ベースは、汎用コンピューティングからアクセラレーテッド・コンピューティングへと急速に移行しています。
ムーアの法則が鈍化する一方で、コンピューティング需要が急増し続ける中、企業はパフォーマンス、TCO、エネルギー効率の将来の改善を推進するために、可能な限りすべてのワークロードを高速化する可能性があります。同時に、企業は、ジェネレーティブAIの時代に生データを精緻化し、価値あるインテリジェンスを生み出すことを目的とした、次世代の最新データセンター、いわゆるAIファクトリーの構築に着手しています。
第 4 四半期のデータセンターの売上高は 184 億ドルで、前四半期比 27% 増、前年同期比 409% 増と過去最高を記録しましたが、これは NVIDIA Hopper GPU コンピューティング プラットフォームと InfiniBand エンドツーエンド ネットワーキングが牽引したものです。コンピュートの収益は5倍以上に増加し、ネットワークの収益は昨年の3倍になりました。ホッパー建築製品の供給が改善していることを嬉しく思います。ホッパーの需要は依然として非常に強いです。次世代製品は、需要が供給をはるかに上回っているため、供給が制約されると予想しています。
第4四半期のデータセンターの成長は、幅広い業界、ユースケース、地域におけるジェネレーティブAIと大規模言語モデルのトレーニングと推論の両方によって推進されました。当社のデータセンタープラットフォームの汎用性と優れたパフォーマンスにより、AIのトレーニングと推論、データ処理、幅広いCUDAアクセラレーションワークロードなど、多くのユースケースで高い投資収益率を実現します。昨年のデータセンターの収益の約40%がAI推論によるものだったと推定されています。
AIソリューションの構築と展開は、ほぼすべての業界に広がっています。さまざまな業界の多くの企業が AI モデルとサービスを大規模にトレーニングして運用しており、ハイパースケール、GPU 専用、プライベート クラウド、オンプレミスなどのクラウド プロバイダーを通じて NVIDIA AI インフラストラクチャ全体の企業が利用しています。
NVIDIA のコンピューティング スタックは、クラウド環境とオンプレミス環境をシームレスに拡張し、マルチクラウドまたはハイブリッド クラウド戦略で展開できます。第 4 四半期には、大手クラウド プロバイダーがデータセンターの収益の半分以上を占め、社内のワークロードと外部のパブリック クラウドの顧客の両方をサポートしました。
Microsoftは最近、50,000以上の組織がGitHub Copilotビジネスを使用して開発者の生産性を向上させ、GitHubの収益成長率が前年比40%に加速することに貢献していると述べました。また、Copilot for Microsoft 365 の導入は、最初の 2 か月間で、以前の 2 つの主要な Microsoft 365 エンタープライズ スイート リリースよりも急速に成長しました。
消費者向けインターネット企業は、AIをいち早く導入しており、当社の最大の顧客カテゴリーの1つとなっています。検索からeコマース、ソーシャルメディア、ニュースやビデオサービス、エンターテインメントまで、さまざまな企業がディープラーニングベースのレコメンデーションシステムにAIを活用しています。これらのAIへの投資は、顧客エンゲージメント、広告の会話、クリックスルー率を向上させることで、大きなリターンを生み出しています。
Metaは最新四半期に、収益の大幅な加速に貢献したとして、より正確な予測と広告主のパフォーマンスの改善を挙げています。さらに、消費者向けインターネット企業は、コンテンツや広告の作成、オンライン商品説明、AIショッピング支援のための自動化ツールを通じて、コンテンツ制作者、広告主、顧客をサポートするために、ジェネレーティブAIに投資しています。
エンタープライズソフトウェア企業は、ジェネレーティブAIを適用して、顧客が生産性の向上を実現できるよう支援しています。ジェネレーティブAIのトレーニングと推論の両方で提携した初期のお客様は、すでに顕著な商業的成功を収めています。
ServiceNow のジェネレーティブ AI プロダクトは、最新四半期において、新製品ファミリーのリリースの中で過去最大の新規年間契約額の貢献を果たしました。また、Adobe、Databricks、Getty Images、SAP、Snowflakeなど、他の多くの主要なAIおよびエンタープライズソフトウェアプラットフォームとも連携しています。
大規模言語モデルの基礎分野は盛んです。Anthropic、Google、Inflection、Microsoft、OpenAI、xAIは、ジェネレーティブAIの驚くべきブレークスルーを続けています。Adept、AI21、Character.ai、Cohere、Mistral、Perplexity、Runwayなどのエキサイティングな企業は、企業やクリエイターにサービスを提供するプラットフォームを構築しています。新しいスタートアップは、世界の多くの地域の特定の言語、文化、習慣にサービスを提供するためにLLMを作成しています。
また、Recursion PharmaceuticalsやGenerate:Biomedicines for biologyなど、まったく異なる業界に対応する基盤モデルを作成している企業もあります。これらの企業は、ハイパースケールや GPU に特化したクラウド プロバイダーを通じて、NVIDIA AI インフラストラクチャの需要を促進しています。今朝、Google は Google と協力して、クラウド データ センターと PC の NVIDIA GPU での推論パフォーマンスを高速化するために、最先端の新しい Gemma 言語モデルを最適化したことを発表しました。
昨年の最も注目すべきトレンドの 1 つは、自動車、ヘルスケア、金融サービスなど、さまざまな業界の企業による AI の大幅な採用です。NVIDIA は、フルスタックのアクセラレーテッド コンピューティング プラットフォームを活用して、自動運転、創薬、不正検出のための低遅延機械学習、ロボティクスなどの垂直領域で企業が AI を採用できるよう、複数のアプリケーション フレームワークを提供しています。
クラウドまたはオンプレミスを通じた自動車業界のデータセンターの収益貢献は、昨年10億ドルを超えたと推定されています。NVIDIA DRIVE インフラストラクチャ ソリューションには、データの取り込み、作成、ラベリング、AI トレーニング、シミュレーションによる検証など、自動運転開発のためのシステムとソフトウェアが含まれています。
世界の OEM、新エネルギー車、トラック輸送、ロボタクシー、ティア 1 サプライヤーの約 80 社の自動車メーカーが、NVIDIA の AI インフラストラクチャを使用して、自動運転や AI コックピット アプリケーション向けの LLM やその他の AI モデルをトレーニングしています。実際、AI に取り組んでいるほぼすべての自動車会社が NVIDIA と協力しています。AV アルゴリズムがビデオ トランスフォーマーに移行し、より多くの自動車にカメラが搭載されるにつれて、NVIDIA の車載データ センター処理の需要は大幅に増加すると予想されます。
ヘルスケア分野では、デジタルバイオロジーとジェネレーティブAIが、創薬、手術、医用画像、ウェアラブルデバイスの再発明に役立っています。NVIDIA は過去 10 年間にわたり、ヘルスケアに関する深い専門知識を構築し、NVIDIA Clara ヘルスケア プラットフォームと、コンピューター支援創薬のための AI 基盤モデルを開発、カスタマイズ、展開するためのジェネレーティブ AI サービスである NVIDIA BioNeMo を開発してきました。
BioNeMoは、エンドツーエンドの創薬プロセスに適用できる事前トレーニング済みの生体分子AIモデルのコレクションを増やしています。Recursion は、創薬エコシステム向けに BioNeMo を通じて独自の AI モデルを利用できるようにすることを発表しました。金融サービスでは、取引やリスク管理から顧客サービスや不正検出まで、さまざまなユースケースでAIが活用されています。たとえば、American Express は NVIDIA AI を使用して不正検出の精度を 6% 向上させました。
地域別のデータセンター収益にシフトします。10月に米国政府が課した輸出管理規制により、データセンターの収益が大幅に減少した中国を除き、すべての地域で力強い成長が見られました。米国政府から中国への出荷制限製品のライセンスは取得していませんが、中国市場向けのライセンスを必要としない代替品の出荷を開始しています。第4四半期のデータセンターの収益に占める中国の割合は1桁台半ばでした。第1四半期も同様のレンジで推移すると予想しています。
米国と中国以外の地域では、ソブリンAIがさらなる需要促進要因となっています。世界中の国々が、自国の言語、国内データ、および地域の研究および企業エコシステムをサポートする大規模言語モデルの構築をサポートするために、AIインフラストラクチャに投資しています。製品の観点から見ると、収益の大部分は、HopperアーキテクチャとInfiniBandネットワーキングによってもたらされました。これらが組み合わさって、アクセラレーテッド・コンピューティングとAIインフラストラクチャのデファクト・スタンダードとして浮上しています。
第2四半期にはH200の初出荷を予定しています。H200はH100の推論性能の約2倍であるため、需要は旺盛です。ネットワーキングの年間収益は130億ドルを超えました。当社のエンドツーエンドのネットワーキングソリューションは、最新のAIデータセンターを定義します。当社のQuantum InfiniBandソリューションは、前年比で5倍以上に成長しました。
NVIDIA Quantum InfiniBand は、最高性能の AI 専用インフラストラクチャの標準です。私たちは現在、データセンター向けにAIに最適化されたネットワーキング用に設計された新しいSpectrum-Xエンドツーエンド製品の発売により、イーサネットネットワーキング分野に参入しています。Spectrum-Xは、AI専用に構築されたイーサネット経由の新しいテクノロジーを導入しています。当社の Spectrum スイッチ、BlueField DPU、およびソフトウェア スタックに組み込まれたテクノロジーは、従来のイーサネットと比較して AI 処理の 1.6 倍のネットワーク パフォーマンスを提供します。
Dell、HPE、Lenovo、Super Micro などの大手 OEM は、グローバルな販売チャネルを持ち、当社の AI ソリューションを世界中の企業に拡大するために Microsoft と提携しています。Spectrum-Xは今四半期の出荷に向けて順調に進んでいます。また、ソフトウェアとサービスの提供も大きく前進し、第4四半期の年間収益は10億ドルに達しました。NVIDIA DGX Cloud は、Microsoft Azure、Google Cloud、Oracle Cloud に加えて、Amazon の AWS を含むパートナーのリストを拡大することを発表しました。DGX Cloud は、NVIDIA 独自の AI R&D およびカスタム モデル開発、および NVIDIA 開発者に使用されています。これにより、CUDA エコシステムが NVIDIA CSP パートナーに提供されます。
さて、ゲームに移りましょう。ゲーミングの売上高は前四半期比横ばいの28億7,000万ドル、前年同期比56%増となり、年末年始のNVIDIA GeForce RTX GPUに対する消費者の需要が堅調だったという当社の見通しを上回りました。会計年度の売上高は15%増の104億5000万ドルでした。CES では、GeForce RTX 40 Super シリーズ GPU ファミリを発表しました。599ドルからで、驚異的なゲームパフォーマンスとジェネレーティブAI機能を提供します。販売は好調なスタートを切っています。
NVIDIA AI Tensor コアと GPU は、最大 836 個の AI トップを提供し、ゲーム用 AI の強化に最適で、日常の生産性を生み出します。RTX GPU で提供する豊富なソフトウェア スタックは、AI をさらに加速します。当社の DLSS 技術により、8 ピクセルのうち 7 ピクセルを AI で生成できるため、レイ トレーシングが最大 4 倍高速になり、画質が向上します。また、最新の大規模言語モデルのジェネレーティブ AI の推論パフォーマンスを高速化するオープンソース ライブラリである Tensor RT LLM for Windows を使用すると、RTX AI PC で最大 5 倍高速に実行できます。
CES では、すべての主要 OEM から新しい RTX 40 シリーズ AI ノート PC も発表されました。これにより、14インチや薄型軽量のノートPCなど、幅広いフォームファクタに高性能なゲームとAI機能がもたらされます。最大686トップのAI性能を持つこれらの次世代AI PCは、ジェネレーティブAIのパフォーマンスを最大60倍向上させ、最高のパフォーマンスを発揮するAI PCプラットフォームとなっています。CES では、開発者が最先端のジェネレーティブ AI モデルをデジタル アバターに統合できる NVIDIA Avatar Cloud Engine マイクロサービスを発表しました。ACE は Best of CES 2024 でいくつかの賞を受賞しました。
NVIDIA は、RTX PC およびワークステーション向けのジェネレーティブ AI アプリケーションを構築および展開するためのエンドツーエンドのプラットフォームを提供しています。これには、開発者がジェネレーティブAIワークロードに組み込むことができるライブラリ、SDK、ツール、サービスが含まれます。NVIDIA は、PC に登場するジェネレーティブ AI アプリケーションの次の波を後押ししています。1 億台以上の RTX PC がインストールされ、500 を超える AI 対応 PC アプリケーションやゲームがリリースされています。
プロビジュアライゼーションへの移行。売上高は前四半期比11%増、前年同期比105%増の4億6,300万ドルでした。会計年度の売上高は15億5,000万ドルで、1%増加しました。当四半期の連続的な成長は、RTX AdaアーキテクチャGPUの豊富な組み合わせが引き続き増加したことによるものです。企業は、データ準備、LLMの微調整、検索拡張生成など、ジェネレーティブAI関連のワークロードをサポートするために、ワークステーションを更新しています。
需要を牽引するこれらの主要な産業分野には、製造、自動車、ロボット工学が含まれます。また、自動車業界は、設計から製造、シミュレーション、運用、工場や自動車の体験までのワークフローをデジタル化しようとしているため、NVIDIA Omniverse をいち早く採用しています。CES では、Brickland、WPP、ZeroLight などのクリエイティブ パートナーやデベロッパーが Omniverse を利用したカー コンフィギュレーターを構築していることを発表しました。ロータスのような大手自動車メーカーは、自動車購入体験に新たなレベルのパーソナライゼーション、リアリズム、インタラクティブ性をもたらすために、この技術を採用しています。
自動車業界への転身。売上高は2億8,100万ドルで、前四半期比8%増、前年同期比4%減となりました。通期の売上高は 21% 増の 10 億 9,000 万ドルで、自動車メーカーによる NVIDIA DRIVE プラットフォームの継続的な採用により、初めて 10 億ドルの大台を超えました。NVIDIA DRIVE Orin は、ソフトウェア デファインド AV フリートに最適な AI カー コンピューターです。
その後継の NVIDIA DRIVE Thor は、多くの場合、ビジョン トランスフォーマー向けに設計されており、より高い AI パフォーマンスを提供し、自動運転と駐車、ドライバーと乗客の監視、AI コックピット機能など、幅広いインテリジェント機能を 1 つの AI コンピューティング プラットフォームに統合し、来年提供される予定です。今四半期は、李汽車、長城汽車、吉利汽車のプレミアムEV子会社であるZEEKR、ジェレミー・シャオミEVなど、自動車業界の顧客に関する発表がいくつかありました。
その他の損益計算書に目を移すと、GAAPベースの売上総利益率は前四半期比で76%に、非GAAPベースの売上総利益率は76.7%に拡大しました。第4四半期の売上総利益率は、好調な部品コストの恩恵を受けました。前四半期比では、GAAPベースの営業費用は6%増、非GAAPベースの営業費用は9%増となりましたが、これは主にコンピューティングおよびインフラストラクチャへの投資の増加と従業員の増加を反映しています。
第4四半期には、自社株買いと現金配当の形で28億ドルを株主に還元しました。24会計年度には、95億ドルの自社株買いを含む99億ドルの現金を株主還元に充てました。
次に、第1四半期の見通しについてご説明します。総収入はプラスマイナス2%の240億ドルを見込んでいます。データセンターとプロビジは前四半期比で成長し、ゲーム業の季節的な減少によって一部相殺されると予想しています。GAAPベースの売上総利益率は76.3%、非GAAPベースの売上総利益率は77%で、プラスマイナス50ベーシスポイントとなる見込みです。第4四半期と同様に、第1四半期の売上総利益率は良好な部品コストの恩恵を受けています。第1四半期以降の残りの期間、売上総利益率は70%台半ばに戻ると予想しています。
GAAPベースの営業費用は約35億ドル、非GAAPベースの営業費用は25億ドルと予想されます。2025会計年度のGAAPおよび非GAAPベースの営業費用は、今後の大きな機会への投資を継続するため、30%台半ばで増加すると予想されます。
GAAPおよび非GAAPベースのその他の収入および費用は、非関連投資による損益を除いた約2億5,000万ドルの利益となる見込みです。GAAPおよび非GAAPベースの税率は17%と予想され、個別項目を除くとプラスマイナス1%となります。財務内容については、CFOのコメント等をIRサイトに掲載しています。
最後に、金融界で予定されているイベントについてお話しします。3月4日にサンフランシスコで開催されるMorgan Stanley Technology and Media and Telecom Conferenceと、3月5日にボストンで開催されるTD Cowenの第44回年次ヘルスケアカンファレンスに参加します。そしてもちろん、3月18日(月)からカリフォルニア州サンノゼで開催される5年ぶりの対面で開催されるDTC年次会議にぜひご参加ください。DTCはJen-Hsun氏の基調講演で幕を開け、翌日の3月19日には金融アナリスト向けのQ&Aセッションを開催します。
この際、質疑応答の募集を開始いたします。オペレーター、質問をお願いします。
質疑応答
演算子
[オペレーターの指示]最初の質問は、ゴールドマン・サックスの張俊哉氏のセリフです。あなたのラインは開いています。
Toshiya Hari
こんにちは。質問をいただき、本当にありがとうございました。データセンター事業について、Jen-Hsun氏に質問です。明らかに、あなたはビジネスで非常にうまくやっています。カレンダー'24と'25に対するあなたの期待が過去90日間でどのように進化したか興味があります。
そして、質問に答える際に、ソフトウェアなど、データセンター内の新しいバケットについて触れていただきたかったのです。ソブリンAI、あなたはその中長期的な考え方についてかなり声高に主張していると思います。そして最近、NVIDIAがASIC市場に参入する可能性があるという記事がありました。そのことに信憑性はあるのか、もしそうなら、今後数年間、君たちがその市場でプレーすることについて、私たちはどのように考えるべきなのか?ありがとうございます。
ジェンセン・ホアン
ありがとう、トシヤ。えっと。質問は3つありましたが、もう1回です。最初の質問は、あなたはできるのか、ということでした。
Toshiya Hari
データセンターに対する期待と、その進化の仕方を推測します。ありがとうございます。
ジェンセン・ホアン
大丈夫です。はい。さて、私たちは一度に4分の1をガイドします。しかし、根本的には、24年、25年、そしてそれ以降も成長を続けるための条件は良好です。そして、その理由を教えてあげましょうか?私たちは、2つの業界全体の移行の始まりにいますが、どちらも業界全体です。1つ目は、汎用コンピューティングからアクセラレーテッドコンピューティングへの移行です。ご存じのとおり、汎用コンピューティングは勢いを失い始めています。また、CSPの拡張や、汎用コンピューティング用の自社データセンターを含む多くのデータセンターが、減価償却を4年から6年に延長していることからもわかります。
以前のようにスループットを根本的かつ劇的に向上させることができないのに、CPU を増やして更新する理由はありません。ですから、すべてを加速させる必要があります。これは、NVIDIAがしばらくの間開拓してきたことです。また、アクセラレーテッド コンピューティングにより、エネルギー効率を劇的に向上させることができます。データ処理のコストを20対1で劇的に改善できます。膨大な数です。そしてもちろん、スピードも。そのスピードは驚異的なもので、ジェネレーティブAIと呼ばれる業界全体の第2の移行を可能にしました。
ジェネレーティブAIについては、電話会談でたくさん話すことになると思います。しかし、ジェネレーティブAIは新しいアプリケーションであることを忘れないでください。それはソフトウェアの新しいやり方を可能にし、新しいタイプのソフトウェアが生み出されています。これは新しいコンピューティング方法です。ジェネレーティブAIは、従来の汎用コンピューティングでは実現できません。あなたはそれを加速させなければなりません。
そして3つ目は、まったく新しい産業を可能にしているということで、これは一歩下がって検討する価値のあるものであり、ソブリンAIに関する最後の質問にもつながります。データセンターは、データを計算して保存し、企業の従業員にサービスを提供するだけではないという意味で、まったく新しい業界です。私たちは今、AI生成に関する新しいタイプのデータセンター、AI生成工場を持っています。
そして、私がそれをAIファクトリーと表現しているのを聞いたことがあるでしょう。しかし、基本的には、データという原材料を、NVIDIAが構築したAIスーパーコンピューターで変換し、非常に価値のあるトークンに変えます。これらのトークンは、人々が素晴らしいChatGPTやMidjourneyで体験するものであり、最近の検索はそれによって強化されています。すべてのレコメンダーシステムは、それに伴うハイパーパーソナライゼーションによって強化されています。
デジタルバイオロジーにおけるこれらの素晴らしいスタートアップは、タンパク質を生成し、化学物質を生成し、リストは続きます。したがって、これらのトークンはすべて、非常に特殊なタイプのデータセンターで生成されます。そして、このデータセンターは、AIスーパーコンピュータやAI生成工場と呼ばれています。しかし、私たちは多様性を目の当たりにしています - 他の理由の1つ - ですから、その根底にあるのはそこです。それが新しい市場に現れる方法は、あなたが私たちを目にしている多様性のすべてにあります。
1つは、私たちが行う推論の量が、今やチャートから外れていることです。ChatGPT とやり取りするたびに、私たちは推論しています。Midjourney(ミッドジャーニー)を使用するたびに、私たちは推論を行っています。生成中のSoraの動画やRunway、編集中の動画、Firefly、NVIDIAが推論している動画など、素晴らしいものを見るたびに。私たちのビジネスの推論の部分は、途方もなく成長しました。約40%を見積もっています。これらのモデルはどんどん大きくなり、推論の量も増えているため、トレーニングの量は継続しています。
しかし、新しい産業にも多角化しています。大規模なCSPは、まだ構築を続けています。彼らの CapEx と議論からわかりますが、GPU に特化した CSP と呼ばれるまったく新しいカテゴリがあります。彼らはNVIDIA AIインフラストラクチャ、GPU特化CSPを専門としています。エンタープライズ・ソフトウェア・プラットフォームがAIを導入しているのを目の当たりにしています。ServiceNow は、本当に素晴らしい例です。Adobeが表示されます。他には、SAPなどがあります。消費者向けインターネットサービスでは、過去のすべてのサービスをジェネレーティブAIで強化しています。そのため、さらに高度にパーソナライズされたコンテンツを作成できます。
産業用ジェネレーティブAIについて話しているのがわかります。現在、私たちの業界は、自動車、健康、金融サービスなど、数十億ドル規模のビジネスを代表しています。合計すると、私たちの垂直産業は今や数十億ドル規模のビジネスです。そしてもちろん、ソブリンAIも。主権AIの理由は、各地域の言語、知識、歴史、文化が異なり、独自のデータを所有しているという事実と関係があります。
彼らは、データを使用し、トレーニングして独自のデジタルインテリジェンスを作成し、その原材料を自分たちで活用できるようにプロビジョニングしたいと考えています。それは彼ら、世界中の各地域のものです。データは彼らのものです。データは彼らの社会にとって最も有用です。そのため、データを保護したいと考えています。彼らは、それを自ら、付加価値のある変革、AIに変換し、それらのサービスを自分たちでプロビジョニングしたいと考えています。
そのため、日本、カナダ、フランスなど、多くの地域でソブリンAIインフラが構築されています。ですから、ここアメリカや欧米で経験されていることは、きっと世界中で再現され、AI生成工場はあらゆる産業、あらゆる企業、あらゆる地域に存在するようになると私は期待しています。そして、昨年は、ジェネレーティブAIがまったく新しいアプリケーション空間、まったく新しいコンピューティングの方法になり、まったく新しい産業が形成され、それが私たちの成長を後押ししているのを目の当たりにしました。
演算子
次の質問は、モルガン・スタンレーのジョー・ムーア氏のセリフです。あなたのラインは開いています。
ジョー・ムーア
すごい。ありがとうございます。私は、収益の40%が推論から来ていることをフォローアップしたかったのです。思ったより多い数字ですね。その数字がおそらく1年前のどこだったのか、推論からLLMがどの程度伸びているのか、少し教えていただけますか?また、それをどのように測定していますか?それは、場合によっては、トレーニングや推論に使用するのと同じGPUであると仮定します。その測定値はどの程度安定していますか?ありがとうございます。
ジェンセン・ホアン
話を戻します。見積もりはおそらく過小評価されています。そして、しかし、私たちはそれを見積もった。その理由をお話ししましょう。1年前は、レコメンダーシステムというシステムがありましたが、インターネット、ニュース、ビデオ、音楽、製品など、インターネットには何兆ドルものがあり、何兆兆ものがあり、あなたの携帯電話は3インチ四方です。そして、そのすべての情報を何か、そのような小さな不動産に収める能力は、レコメンダーシステムと呼ばれるシステムを介して行われます。
これらのレコメンダー システムは、以前はすべて CPU アプローチに基づいていました。しかし、近年のディープラーニングやジェネレーティブAIへの移行により、これらのレコメンダーシステムはGPUアクセラレーションの道に直接入りました。埋め込みにはGPUアクセラレーションが必要です。最近傍探索にはGPUアクセラレーションが必要です。再ランク付けにはGPUアクセラレーションが必要であり、拡張情報を生成するにはGPUアクセラレーションが必要です。
そのため、GPU は現在、レコメンダー システムのすべてのステップに含まれています。ご存じのとおり、レコメンダーシステムは地球上で最大のソフトウェアエンジンです。世界のほとんどすべての大手企業は、これらの大規模なレコメンダーシステムを運用する必要があります。ChatGPT を使用するときはいつでも、推論されています。Midjourney(ミッドジャーニー)について耳にするたびに、そして彼らが消費者のために生み出しているものの数、そしてGetty(ゲッティ)とAdobeのGetty(ゲッティ)との仕事について耳にするたびに、私たちはGettyと仕事をしています。これらはすべてジェネレーティブモデルです。リストは続きます。そして、私が述べたように、これらのどれもが1年前には存在しておらず、100%新しいものでした。
演算子
次の質問は、バーンスタイン・リサーチのステイシー・ラスゴン氏のセリフです。あなたのラインは開いています。
ステイシー・ラスゴン
こんにちは、みんな。私の質問を受けてくれてありがとう。私はコレットを欲しがっていましたが、次世代の製品を期待しているというあなたのコメントに触れたかったのですが、それはブラックウェルが供給に制約があることを意味していたと思います。その要因について、もう少し掘り下げていただけますか?ホッパーが緩和されているのに、なぜそれが制約されるのですか?そして、それはいつまで制約されると思いますか、例えば、次の世代は25年暦までずっと制約されると思いますか、いつ緩和され始めるのでしょうか?
ジェンセン・ホアン
はい。まず第一に、全体的に供給が改善していることです。私たちのサプライチェーンは、ウエハー、パッケージング、メモリ、すべてのパワーレギュレーターから、トランシーバー、ネットワーク、ケーブルなど、あらゆるものが素晴らしい仕事をしてくれています。NVIDIA が出荷するコンポーネントのリスト -- ご存知のように、NVIDIA GPU はチップのようなものだと思われています。しかし、NVIDIA Hopper GPU には 35,000 個のパーツがあります。重さは70ポンドです。これらは、私たちが構築した非常に複雑なものです。人々がそれをAIスーパーコンピューターと呼ぶのには正当な理由があります。データセンターの裏側を見ると、システムやケーブル配線システムは気が遠くなるようなものです。これは、世界で最も高密度で複雑なネットワーク配線システムです。
InfiniBandの事業は前年比で5倍に成長しました。サプライチェーンは本当に素晴らしいサポートをしてくれています。そのため、全体的に供給は改善しています。需要は供給よりも強い状態が続くと予想しており、年間を通じて最善を尽くします。サイクルタイムは改善されつつあり、今後も最善を尽くしていきます。しかし、ご存じのように、新製品が登場するたびに、ゼロから非常に大きな数に上昇します。そして、それは一朝一夕にできるものではありません。すべてがランプアップされています。ステップアップしません。
ですから、新世代の製品が登場するたびに、そして今、私たちはH200を増やしています。短期的には、需要に合理的に追いつく方法はありません。Spectrum-Xを強化しています。Spectrum-Xは信じられないほどうまくいっています。これは、イーサネットの世界へのまったく新しい製品です。InfiniBand は、AI 専用システムの標準です。Spectrum-X によるイーサネット --イーサネットは、あまり優れたスケールアウトシステムではありません。
しかし、Spectrum-Xでは、アダプティブルーティング、輻輳制御、ノイズ分離、トラフィック分離などの基本的な新機能をイーサネットの上に階層化して強化し、イーサネットをAI向けに最適化することができました。そのため、InfiniBand は AI 専用のインフラストラクチャになります。Spectrum-XはAIに最適化されたネットワーキングであり、それは増加しているため、すべての新製品では、需要が供給を上回っています。そして、それは新製品の性質のようなものなので、私たちは需要を取り込むためにできる限り迅速に取り組んでいます。しかし、全体として、ネットネット全体では、供給は非常に順調に増加しています。
演算子
次の質問は、TD Cowen の Matt Ramsay 氏のセリフです。あなたのラインは開いています。
マット・ラムゼイ
こんにちは、ジェンセン、コレット。結果おめでとうございます。私は2つの部分の質問を推測し、それはステイシーがちょうどあなたの需要があなたの供給を大幅に上回っている上で得ていたものに来て、供給は改善されています。そして、質問の2つの側面は、まずコレットにとって、顧客が展開する準備ができているかどうか、そしてまだ稼働していない可能性のある製品の蓄積があるかどうかを監視するという観点から、製品の割り当てをどのように考えているかということです。
そして、Jen-Hsunさん、あなたにとって、あなたとあなたの会社が、業界を超えて小規模なスタートアップ企業、ヘルスケア分野のものから政府まで、互いに競合する顧客間での製品の割り当てに注いでいる考えについて、少しお話しいただきたいです。これは非常にユニークなテクノロジーであり、あなたの会社だけでなく、業界の利益のために、見積もり/見積もり解除を公平に割り当てることについてどのように考えているかについて、少しお話しいただきたいです。感謝。
コレット・クレス
まず、お客様の GPU インスタンスの構築方法と割り当てプロセスについて、お客様とどのように連携しているかについて、お尋ねください。私たちが一緒に仕事をしている人々、つまり私たちが一緒に仕事をしているお客様は、長年にわたって私たちのパートナーであり、クラウドで設定するものと内部で設定するものの両方を支援してきました。
これらのプロバイダーの多くは、エンドユーザーだけでなく、社内で必要としているさまざまなニーズに対応するために、一度に複数の製品を提供しています。ですから、もちろん、彼らは事前に、彼らが必要とする新しいクラスターについて考えています。そして、彼らとの話し合いは、Hopperアーキテクチャだけでなく、彼らが次の波を理解し、彼らの興味を引き、彼らが望む需要の見通しを得るのを助けることです。
そのため、何を購入するか、何がまだ構築されているか、何がエンドユーザーに使用されているかという点で、常に移動するプロセスです。しかし、私たちが築いてきた関係と、ビルドの洗練さに対する彼らの理解は、その割り当てに本当に役立ち、彼らとのコミュニケーションにも役立ちました。
ジェンセン・ホアン
まず、CSPは、製品のロードマップと移行を非常に明確に把握しています。そして、CSPとの透明性により、どの製品をいつ、どこに配置すべきかについて自信が持てます。ですから、彼らは自分たちのタイミングを熟知しています。そして、彼らは量ともちろん割り当てを知っています。公平に配分します。公平に配分します。私たちは最善を尽くし、公平に配分し、不必要に配分しないように最善を尽くします。
前述したように、データセンターの準備が整っていないのに、なぜ何かを割り当てるのでしょうか。何かを座らせることほど難しいことはありません。ですから、公平に配分し、不必要に配分しないようにしましょう。そして、エンドマーケットについてご質問いただいたのですが、OEM、ODM、CSP、そして非常に重要なエンドマーケットとの優れたエコシステムがあるということです。NVIDIA が本当にユニークなのは、お客様、パートナー、CSP、OEM をお客様にもたらすことです。
生物学企業、ヘルスケア企業、金融サービス企業、AI開発者、大規模言語モデル開発者、自律走行車企業、ロボット工学企業。ロボット工学の巨大な企業が台頭してきています。倉庫ロボット、外科ロボット、ヒューマノイドロボット、あらゆる種類の本当に興味深いロボット会社、農業ロボット会社があります。これらのスタートアップ、大企業、ヘルスケア、金融サービス、自動車などはすべて、NVIDIA のプラットフォーム上で作業しています。私たちはそれらを直接サポートします。
また、多くの場合、CSP への割り当てと顧客を CSP への同時誘導を行うことで、2 つのメリットを得ることができます。ですから、このエコシステムが活気に満ちているのは、まったく正しいことです。しかし、その中核となるのは、無駄を省き、パートナーとエンドユーザーをつなぐ機会を模索することで、公平に配分することです。私たちは常にそのような機会を探しています。
演算子
次の質問は、UBSのティモシー・アルクーリ氏のセリフです。あなたのラインは開いています。
ティモシー・アルクーリ
どうもありがとうございます。バックログを収益にどう変換しているのか、お聞きしたかったのです。明らかに、製品のリードタイムはかなり短縮されています。コレット、あなたは在庫購入のコミットメントについて話しませんでした。しかし、在庫と購入コミット、プリペイド供給を合計すると、実際には少し下がっていました。それをどう読めばいいのでしょうか?リードタイムが短いので、サプライヤーにそれほど金銭的なコミットメントをする必要はないと言っているだけですか、それとも、オーダーブックとバックログを埋めるのに近づいているある種の定常状態に達しているのでしょうか?感謝。
コレット・クレス
はい。そこで、私たちがサプライヤーをどのように見ているかについて、これら3つの異なる分野について強調したいと思います。おっしゃる通りです。手持ちの在庫は、私たちが現在割り当てていることを考えると、在庫が入ったらすぐにお客様に出荷するようにしています。お客様は、私たちが求めていたスケジュールに応える能力を高く評価していると思います。
2つ目は、購入の約束です。私たちの購入コミットメントには、製造に必要なさまざまなコンポーネントが含まれています。しかし、多くの場合、必要な容量を調達しています。必要な容量の長さやコンポーネントの長さはすべて異なります。その中には、今後2四半期のものもあれば、複数年にわたるものもあります。
プリペイドについても同じことが言えます。私たちのプリペイドは、将来を見据えて、いくつかの製造サプライヤーで必要な予備能力を確保できるように事前に設計されています。ですから、供給を増やしているのとほぼ同じ数字については何も読みません。それらはすべて長さが異なるため、リードタイムの長いものや、構築に必要なものを購入しなければならなかったことがあります。
演算子
次の質問は、Melius ResearchのBen Reitzes氏のセリフです。あなたのラインは開いています。
ベン・ライツェス
はい。感謝。結果おめでとうございます。コレット、粗利益率に関するあなたのコメントと、70年代半ばに戻るべきだというあなたのコメントについて話したかったのです。それを開梱してもよろしければ。また、それは新製品にHBMが含まれていることによるものなのでしょうか、また、そのコメントの原動力は何だと思いますか?どうもありがとう。
コレット・クレス
はい。ご質問ありがとうございます。冒頭の挨拶では、第4四半期の業績と第1四半期の見通しについて強調しました。この2つの四半期はどちらもユニークです。この2四半期の売上総利益率はユニークで、コンピューティングとネットワークの両方にわたるサプライチェーンにおける有利な部品コストや、製造プロセスのいくつかの異なる段階における有利な部品コストの恩恵を受けています。
今後を見据えると、残りの会計年度の売上総利益率は70%台半ばとなり、第4四半期と第1四半期のピーク前の水準に戻ることが予想されます。ですから、ミックスのバランスだけを考えています。ミックスは、今年の残りの期間に出荷するものの最大の原動力となるでしょう。そして、それらは本当にただのドライバーです。
演算子
次の質問は、カンター・フィッツジェラルドのC.J.ミューズのセリフです。あなたのラインは開いています。
C.J.ミューズ
はい。こんにちは、質問を受け付けていただきありがとうございます。Jen-Hsunさん、大局的な質問です。過去 10 年間で GPU コンピューティングが 100 万倍に向上し、今後も同様の改善が期待されていることを考えると、お客様は現在行っている NVIDIA への投資の長期的な使いやすさについてどのように考えていますか?今日のトレーニング クラスターは明日の推論クラスターになりますか?この展開をどのように見ていますか?ありがとうございます。
ジェンセン・ホアン
ねえ、CJ。ご質問ありがとうございます。ええ、それは本当にクールな部分です。ここまでパフォーマンスを改善できたのは、プラットフォームに2つの特徴があるからです。1つは、加速していることです。そして2つ目は、プログラム可能であることです。もろくありません。NVIDIA は、CNN と Alex Krizhevsky と Ilya Sutskever と Geoff Hinton が AlexNet を最初に明らかにしたときから、RNN から LSTM まで、RL からディープラーニング RL まで、すべてのバージョンにトランスフォーマーに至るまで、文字通りまさに最初から続いている唯一のアーキテクチャです。
ビジョントランスフォーマー、マルチモダリティトランスフォーマー、そして今や時系列的なもの、そしてあらゆるバリエーション、あらゆるAIの種など、あらゆるバージョンや種が登場し、私たちはそれをサポートし、スタックを最適化し、インストールベースに展開することができました。これは本当に素晴らしい素晴らしい部分です。一方では、Tensor コア用のトランスフォーマー エンジンなどの Tensor コアのような新しいアーキテクチャや新しいテクノロジーを発明し、さまざまな世代の Tensor コアで行ったように、新しい数値形式と処理構造を改善しながら、同時にインストール ベースをサポートすることができます。
その結果、私たちは新しいソフトウェアアルゴリズムのすべてに投資しています -- 発明、すべての発明、業界のモデルの新しい発明、そしてそれは一方では私たちのインストールベースで実行されます。一方、変圧器のような革新的なものがあれば、ホッパー変圧器エンジンのようなまったく新しいものを作り、それを未来に実装することができます。そのため、ソフトウェアをインストールベースに提供し、それをどんどん改善し続けることができるため、お客様のインストールベースは、新しいソフトウェアによって時間の経過とともに強化されます。
一方、新しいテクノロジーについては、革新的な機能を生み出します。私たちの未来の世代で、突然、大規模言語モデルにおける驚くべきブレークスルーが可能になったとしても驚かないでください そして、それらのブレークスルーは、CUDAを実行しているため、ソフトウェアで行われ、インストールベースで利用できるようになるでしょう。ですから、私たちは一方ではすべての人を運びます。一方、私たちは大きなブレークスルーを起こします。
演算子
次の質問は、ウェルズ・ファーゴのアーロン・レイカーズのセリフです。あなたのラインは開いています。
アーロン・レイカーズ
はい。質問をいただきありがとうございます。中国事業についてお伺いしたい。準備されたコメントの中で、いくつかの代替ソリューションを中国に出荷し始めたとおっしゃったことは承知しています。また、その貢献度は、データセンター・ビジネス全体の約1桁台半ばの%にとどまると予想しています。ですから、問題は、今日中国市場に出荷している製品の規模はどの程度か、そしてなぜ他の代替ソリューションが市場に出てきて、その機会に再び参加するために幅を広げることを期待すべきではないのかということです。ありがとうございます。
ジェンセン・ホアン
根本的には、米国政府が NVIDIA のアクセラレーテッド コンピューティングと AI の最新機能を中国市場に限定したいと考えていることを思い出してください。そして、米国政府は、私たちが中国で可能な限り成功することを望んでいます。この2つの制約の中に、いわば2つの柱の中に制限があり、新しい制限が出たときに一時停止しなければならなかったのです。私たちはすぐに立ち止まりました。制限が何であるかを理解するために、ソフトウェアがハッキングできない方法で製品を再構成しました。それには時間がかかりました。そこで、中国への製品提供をリセットし、現在は中国のお客様にサンプル出荷しています。
そして、その市場で競争し、制限の仕様の範囲内でその市場で成功するために最善を尽くします。以上です。この前四半期は、市場での立ち止みに伴い、事業が大幅に減少しました。マーケットプレイスでの出荷を停止しました。今四半期もほぼ同じになると予想しています。しかし、その後は、うまくいけば、私たちは自分たちのビジネスのために競争し、最善を尽くすことができ、それがどうなるかを見ていきます。
演算子
次の質問は、パイパー・サンドラーのハーシュ・クマールのセリフです。あなたのラインは開いています。
ハーシュ・クマール
はい。Jen-Hsun、Colette、NVIDIAチームの皆さん、こんにちは。まず第一に、見事な四半期とガイドおめでとうございます。あなたのソフトウェアビジネスについて少しお話ししたかったのですが、10億ドルを超えていると聞いて喜ばしいことですが、Jen-HsunまたはColetteに、ソフトウェアビジネスのさまざまな部分と部分が何であるかを理解するのを手伝ってくれないかと期待していましたか?言い換えれば、その成長がどこから来ているのかをよりよく理解できるように、それを少し紐解くのを手伝ってください。
ジェンセン・ホアン
一歩下がって、NVIDIAがソフトウェアで大成功を収める根本的な理由を説明しましょう。まず、ご存じのとおり、アクセラレーテッド コンピューティングはクラウドで大きく成長しました。クラウドでは、クラウドサービスプロバイダーは非常に大規模なエンジニアリングチームを持っており、私たちは彼らが独自のビジネスを運営および管理できる方法で彼らと協力しています。また、問題が発生した場合は、常に大規模なチームが割り当てられています。また、エンジニアリング チームは当社のエンジニアリング チームと直接連携し、アクセラレーテッド コンピューティングに関連する複雑なソフトウェア スタックの強化、修正、保守、パッチ適用を行っています。
ご存じのとおり、アクセラレーテッド コンピューティングは汎用コンピューティングとは大きく異なります。C++ のようなプログラムから始めるのではありません。それをコンパイルすると、すべてのCPUで実行されます。データ処理SQLとSQL構造データ対すべての画像とテキスト、非構造化PDFから、古典的な機械学習、コンピュータービジョン、音声、大規模言語モデル、すべてのレコメンダーシステムまで、あらゆるドメインに必要なソフトウェアのスタック。これらすべてに異なるソフトウェアスタックが必要です。これが、NVIDIAが何百ものライブラリを持っている理由です。ソフトウェアがなければ、新しい市場を開拓することはできません。ソフトウェアがない場合は、新しいアプリケーションを開いて有効にすることはできません。
アクセラレーテッド・コンピューティングには、ソフトウェアが根本的に必要です。これが、アクセラレーテッド コンピューティングと汎用コンピューティングの根本的な違いであり、ほとんどの人が理解するのに長い時間がかかりました。そして今、人々はソフトウェアが本当に重要であることを理解しています。そして、CSPとの連携方法は、とても簡単です。私たちには、大規模なチームと連携している大規模なチームがあります。
しかし、ジェネレーティブAIによって、すべての企業とすべてのエンタープライズソフトウェア企業がアクセラレーテッド コンピューティングを採用できるようになった今、アクセラレーテッド コンピューティングを採用することはもはや不可能であり、汎用コンピューティングだけではスループットの向上を維持することはもはや不可能であるため、アクセラレーテッド コンピューティングを採用することが不可欠になっています。これらのエンタープライズソフトウェア企業やエンタープライズ企業には、世界中のすべてのクラウド、プライベートクラウド、オンプレミスで実行されるソフトウェアスタックを維持および最適化できる大規模なエンジニアリングチームがありません。
そこで、すべてのソフトウェアスタックの管理、最適化、パッチ適用、チューニング、インストールベースの最適化を行います。そして、それらをコンテナに積み込みます。私たちはこれを NVIDIA AI Enterprise と呼んでいます。そして、私たちが市場に参入する方法は、NVIDIA AI Enterprise をオペレーティング システムのようなランタイムとして、人工知能のためのオペレーティング システムと考えることです。
また、GPU あたり年間 4,500 ドルを請求します。私の推測では、世界中のすべての企業、すべてのクラウド、プライベート クラウド、オンプレミスにソフトウェアを展開しているすべてのソフトウェア エンタープライズ企業が、特に GPU で NVIDIA AI Enterprise を実行することになると思います。したがって、これは時間の経過とともに非常に重要なビジネスになる可能性があります。素晴らしいスタートを切っています。そしてコレットは、すでに10億ドルのランレートに達しており、まだ始まったばかりだと述べました。
演算子
ありがとうございます。それでは、CEOのJen-Hsun Huang氏に閉会の挨拶をお願いします。
ジェンセン・ホアン
コンピュータ業界では、同時に2つのプラットフォームシフトが同時に行われています。1兆ドル規模のデータセンターの設置ベースは、汎用コンピューティングからアクセラレーテッドコンピューティングへと移行しています。すべてのデータセンターが高速化され、コストとエネルギーを管理しながら、スループットが向上し、コンピューティングの需要に追いつくことができます。NVIDIAの驚異的なスピードアップは、ソフトウェアが人間の言語から生物学の構造や3D世界まで、あらゆる情報を学習し、理解し、生成できる、まったく新しいコンピューティングパラダイムであるジェネレーティブAIを可能にしました。
私たちは今、AI専用のデータセンターが大量の生データを処理してデジタルインテリジェンスに洗練させる新しい産業の始まりにいます。NVIDIA AI スーパーコンピューターは、前回の産業革命の交流発電所のように、本質的にはこの産業革命の AI 生成工場です。あらゆる業界のあらゆる企業は、基本的に独自のビジネスインテリジェンス、そして将来的には独自のジェネレーティブAIに基づいて構築されています。
ジェネレーティブAIは、AI生成工場の次の1兆ドルのインフラを構築するためのまったく新しい投資サイクルを開始しました。この2つのトレンドにより、今後5年間で世界のデータセンターインフラの設置ベースが倍増し、年間数千億ドル規模の市場機会がもたらされると考えています。この新しいAIインフラストラクチャは、今日では不可能だったまったく新しいアプリケーションの世界を切り開くでしょう。私たちは、ハイパースケールクラウドプロバイダーや消費者向けインターネット企業とともにAIの旅を始めました。そして今、自動車からヘルスケア、金融サービス、産業、通信、メディア、エンターテインメントまで、あらゆる業界が参加しています。
業界固有のアプリケーション フレームワークと巨大な開発者およびパートナー エコシステムを備えた NVIDIA のフル スタック コンピューティング プラットフォームは、あらゆる企業を支援し、あらゆる業界の企業が AI 企業になるのを支援するためのスピード、スケール、リーチを提供します。来月サンノゼで開催されるGTCでは、皆さんとお伝えしたいことがたくさんあります。ぜひご参加ください。来四半期の進捗状況をお知らせできることを楽しみにしています。