DRAM市場の主な動向 NVIDIAの株価目標を引き上げ

DRAM市場の主な動向を箇条書きでまとめると:

- DRAM価格が来年までに最大50%上昇する可能性があり、業界に「ウルトラスーパーサイクル」(大好況)の兆しが見られる

- AI需要の急増により、HBM(高帯域幅メモリ)を中心にDRAM市場が活況を呈している

- 市場環境の変化により、各企業はHBMや次世代低電力DDR、グラフィック用DRAMなど、多様な製品の生産比率調整が必要になっている。

- サムスン電子は原価競争力で優位だが、次世代DRAM開発で競合他社に追い上げられている。

- SKハイニックスはHBM市場で主導権を握り、過去最高の業績を予想しているが、生産能力の制約に直面している。

- マイクロンは生産能力と歩留まりで遅れをとっているが、新工場建設により将来的な競争力向上を目指している。

- 各社の戦略と成果次第で、現在の市場シェア構造(サムスン:SKハイニックス:マイクロン = 4:3:2)が変化する可能性がある。

DRAM価格上昇が続く主な理由は以下の通りです:

1. AI需要の急増: 特にAIサーバー向けの高帯域幅メモリ(HBM)の需要が急増しています

2. 供給の制限: 主要メーカーが減産を行い、供給量を抑制しています

3. 最新規格DDR5の需給逼迫: AIサーバーやハイエンドPCでDDR5の大容量化が進み、需要が増加しています

4. 市場の寡占化: サムスン電子、SKハイニックス、マイクロンの3社で市場シェアの大部分を占めており、価格コントロールが容易になっています

5. 生産能力の制約: 特にHBMなどの高性能メモリへの生産シフトにより、他のDRAM製品の供給が制限されています

6. 次世代製品への移行: DDR4からDDR5への移行に伴い、より高価格なDDR5の需要が増加しています

これらの要因が重なり、DRAM価格の上昇傾向が続いています。特にAI関連需要の急増と供給制限が大きな影響を与えています。
DRAMの供給不足解消の見通しについては、以下のポイントが挙げられます:

1. 短期的には供給不足が続く見込み: 2024年前半まではDRAM価格の上昇が予想されており、供給不足が続くと考えられます

2. 需要と供給のバランスが変化: AIサーバー向けの高帯域幅メモリ(HBM)やDDR5などの最新規格の需要が急増しており、需給バランスに影響を与えています

3. メーカーの生産調整: サムスン電子やSKハイニックスなど主要メーカーが減産を行い、供給量を調整しています

4. 新規生産能力の拡大: マイクロンなどが新工場建設を進めていますが、本格的な稼働は2026年頃からとなる見込みです

5. 市場の不確実性: サーバー・データセンター向け需要の回復が不透明であり、これがDRAM価格上昇を抑える要因になる可能性があります

6. 製品別の差異: 汎用DRAMとHBMなど特殊用途向けDRAMで需給状況が異なる可能性があります。

総じて、2024年後半から2025年にかけて徐々に供給不足が緩和される可能性がありますが、AIなどの新たな需要要因もあり、完全な解消時期を明確に予測するのは難しい状況です。


NVIDIAの株価目標を130ドルから180ドルに引き上げ

説明1)KeyBancはNVIDIAの株価目標を130ドルから180ドルに引き上げました。この決定は、NVIDIAのAIチップ市場における強い立場と今後の成長への期待を反映しています。以下に、KeyBancの分析と予測をまとめます。

## KeyBancの株価目標引き上げ

- **旧目標**: 130ドル
- **新目標**: 180ドル(約38%の引き上げ)

この大幅な引き上げは、NVIDIAのAIチップ市場における強い立場と、今後の成長への期待を反映しています

## 2024年サーバー市場予測

KeyBancは2024年のサーバー出荷台数予測を上方修正しました:

- **全体**: 前回予測の+4%から+7%に修正
- **エンタープライズ向け**: +5%
- **クラウド向け**: +8%
- **AI向け**: +150%(約45万台)

特にAI向けサーバーの成長率が150%と突出しており、NVIDIAのGPUに対する需要が依然として非常に強いことを示しています

## GB200シリーズの特徴

NVIDIAの次世代AIチップGB200シリーズについて、KeyBancは以下のような見解を示しています:

- **2025年の需要の主流**: NVL72構成になると予測
- **性能**: 現行のH100比で20-30倍の性能
- **コスト最適化**: トークン生成コストの最適化

これらの特徴により、GB200シリーズは競合他社の製品に対して技術的優位性を持つ可能性があります

## 2025年の収益予測

KeyBancはNVIDIAのデータセンター部門の2025年収益を2,000億ドル以上と予測しています。この予測は以下の要因に基づいています:

- **GB200シリーズ、特にNVL72構成への期待**
- **AIサーバー市場の継続的な拡大予測**
- **NVIDIAの現在の市場シェアの維持を想定**

この予測が実現すれば、NVIDIAは2023年の約600億ドルから3年で3倍以上の成長を遂げることになります。ただし、この成長率は非常にチャレンジングであり、様々な不確実性を含んでいることに留意する必要があります

## まとめ

KeyBancの予測は、NVIDIAのAIチップ市場における強い立場と、今後の成長への期待を反映しています。GB200シリーズの技術的特徴と強い需要予測を背景に、大幅な株価目標の引き上げが行われました。技術革新のスピードが速いAI分野では、競合他社の動向や市場環境の変化に常に注意を払う必要があり、このような高い成長率や評価を前提とした予測には、相応の不確実性が含まれていることを認識しておくべきです。

投資家は、NVIDIAの現在の強みを評価しつつも、これらの不確実性や潜在的なリスク要因を十分に考慮した上で、慎重に投資判断を行うことが重要です。

説明2)KeyBancはNVIDIAの株価目標を**$180**に引き上げたとの情報があります。これは、NVIDIAのAIチップ市場における強い立場と、今後の成長への期待を反映しているようです1。
また、2024年のサーバー市場に関する予測では、特にAI向けサーバーの成長率が**150%**と非常に高いことが示されています。これはNVIDIAのGPUに対する需要が非常に強いことを示唆しています
NVIDIAの次世代AIチップであるGB200シリーズについては、2025年の需要の主流はNVL72構成になると予測されており、現行のH100比で20-30倍の性能が期待されています。これにより、トークン生成コストの最適化が可能になると見られています1。
さらに、KeyBancはNVIDIAのデータセンター部門の2025年収益を2,000億ドル以上と予測しており、これが実現すれば、NVIDIAは2023年の約600億ドルから3年で3倍以上の成長を遂げることになります。ただし、このような予測には不確実性が含まれているため、投資家は慎重に投資判断を行う必要があります
これらの情報は、NVIDIAのAIチップ市場における強い立場と、今後の成長への期待を反映しており、技術革新のスピードが速いAI分野での競合他社の動向や市場環境の変化に常に注意を払う必要があることを示しています。投資家は、これらの不確実性や潜在的なリスク要因を十分に考慮した上で、慎重に投資判断を行うことが重要です。

補足)GB200シリーズの具体的な性能向上について、H100との比較を中心にまとめると以下のようになります:

1. 演算性能の向上:
- FP16/BF16演算性能: 約2.5倍向上(H100の1.979PFLOPSに対し、GB200は5PFLOPS)
- FP8/INT8演算性能: 約2.5倍向上(H100の3.958PFLOPSに対し、GB200は10PFLOPS)
- 新たにFP4演算に対応し、20PFLOPSの性能を実現

2. メモリ性能の向上:
- メモリ容量: 2.4倍増加(H100の80GBに対し、GB200は最大192GB)
- メモリ帯域幅: 2.4倍向上(H100の3.35TB/sに対し、GB200は8TB/s)

3. 相互接続性能の向上:
- NVLink: 第5世代に進化(H100は第4世代)
- NVLink帯域幅: 2倍向上(H100の900GB/s双方向に対し、GB200は1.8TB/s双方向)

4. 電力効率の向上:
- TDPは増加しているものの(H100の700Wに対し、GB200は1,200W)、性能向上率が電力増加率を上回っており、全体的な電力効率は向上している

5. AI特化機能の強化:
- Mixture of Experts (MoE)モデルのサポート強化
- 大規模言語モデル(LLM)のトレーニングと推論性能の大幅な向上

6. システムレベルでの性能向上:
- GB200 NVL72システムでは、H100ベースのシステムと比較して、AIトレーニング性能が約3倍、推論性能が約15倍向上

これらの性能向上により、GB200シリーズは特に大規模AIモデルのトレーニングと推論において、従来のH100シリーズを大きく上回る性能を発揮することが期待されています。特に、メモリ容量と帯域幅の大幅な向上は、より大規模で複雑なAIモデルの処理を可能にし、AIの応用範囲をさらに拡大させる可能性があります。

GB200シリーズのFP64性能向上について具体的に説明します。

### FP64性能の向上

GB200シリーズのFP64性能は、前世代のH100と比較して約32%の向上を示しています。具体的な数値は以下の通りです:

- **GB200**: 45 TFLOPS
- **H100**: 34 TFLOPS

この性能向上は、特に高精度の計算を必要とする科学技術計算やシミュレーションなどの分野で大きなメリットをもたらします[1][2][3]。

### まとめ

GB200シリーズは、FP64性能において約32%の向上を実現しており、これにより高精度計算の効率が大幅に改善されます。この性能向上は、AIやデータセンター向けの需要が増加する中で、NVIDIAの競争力をさらに強化する要因となります。

補足2)NVIDIAのGB200 NVL72は、AIとハイパフォーマンスコンピューティング(HPC)のための次世代のラックスケールコンピューティングソリューションです。以下は、その主な特徴です:
36個のGrace CPUと72個のBlackwell GPUを統合: GB200 NVL72は、これらのコンポーネントを1つのラックスケールデザインで接続し、大規模な計算能力を提供します
水冷式ラックスケールソリューション: このシステムは、72-GPU NVLinkドメインを利用して、1つの巨大なGPUとして機能し、兆単位パラメーターの言語モデル(LLM)推論を30倍高速化します
NVLink Switch System: これにより、AIとHPCワークロードに対して毎秒130テラバイトの低遅延GPU通信を提供します
第2世代Transformer Engine: FP4 AIを可能にし、第5世代NVIDIA NVLinkと組み合わせることで、兆単位のパラメーター言語モデルに対して30倍高速なリアルタイムLLM推論性能を提供します
エネルギー効率: 水冷GB200 NVL72ラックは、データセンターの二酸化炭素排出量とエネルギー消費を削減します。同じ電力でパフォーマンスが40倍になり、水の消費量を大幅に削減します
これらの特徴により、GB200 NVL72は、AIとHPCの分野での大規模な計算ニーズに応えるための強力なソリューションとなっています。NVIDIAは、この技術を通じて、AIの新時代にパワーを与えることを目指しています

説明1)ラックスケールコンピューティングソリューションとは、データセンターや大規模計算環境で使用される、統合されたハードウェアとソフトウェアのシステムです。これらのソリューションは、複数のサーバー、ストレージ、ネットワーキング機器を一つのラック内に収め、大量のデータ処理や計算タスクを効率的に実行するために設計されています。特にAIや機械学習、ハイパフォーマンスコンピューティング(HPC)などの分野での需要が高まっています。
主な特徴は以下の通りです:
スケーラビリティ: ラックスケールソリューションは、必要に応じて容易に拡張できるため、企業や研究機関が成長するデータと計算ニーズに対応できます。
高性能: 多層ストレージソリューションで数百ペタバイトを実現し、AIワークロードに必要な膨大なデータ容量と高性能なデータ帯域幅をサポートします。
エネルギー効率: 液冷ソリューションを含むラックスケールシステムは、データセンターの消費電力を削減しながら、AIとHPCの性能を拡張することが可能です。
最適化: AIおよび機械学習におけるデータパイプライン向けに最適化され、GPUへのデータパイプラインを常時最大供給の状態に保ちます。
これらのソリューションは、AIトレーニングや推論、その他の計算集約的なタスクを高速化し、データセンターの運用効率を向上させることが期待されています

説明2)NVIDIA Grace CPUは、Armアーキテクチャを採用した高性能で効率的なCPUです。以下はその主な特徴です:
高性能: NVIDIA Grace CPUは、AIやハイパフォーマンスコンピューティング(HPC)のために設計されており、大規模な計算課題を解決するための妥協のないパフォーマンスを提供します
Armアーキテクチャ: ArmベースのCPUであり、エネルギー効率が高く、GPUと密に結合してアクセラレーテッドコンピューティングを強化することができます
NVLink-C2C: NVIDIA Grace CPUは、NVLink Chip-2-Chip (C2C)を介して他のGrace CPUやNVIDIA Hopper GPUと高速で通信することができます。これにより、データセンターのニーズに合わせた多様な構成で使用できる柔軟性を持っています
LPDDR5Xメモリ: エラー修正コード(ECC)などのメカニズムによってサーバークラスの信頼性を持ち、現行のサーバーメモリに比べて2倍のメモリ帯域幅と、最大10倍の電力効率を実現します
Scalable Coherency Fabric: NVIDIAが設計したScalable Coherency Fabric (SCF)は、コア数と帯域幅を拡張できるように設計されたメッシュファブリックと分散キャッシュアーキテクチャで、高速なデータ移動を可能にします2。
これらの特徴により、NVIDIA Grace CPUは、AIやHPCの分野での大規模な計算ニーズに応えるための強力なソリューションとなっています

説明3)NVIDIAのBlackwell GPUは、AIとアクセラレーテッドコンピューティングのための最新のGPUアーキテクチャです。以下はその主な特徴です:
高度なコンピューティング能力: Blackwell GPUは、2,080億のトランジスタを搭載し、カスタムビルドされたTSMC 4NPプロセスを使用して製造されています。これにより、数兆パラメータ規模のAIモデルのトレーニングとリアルタイムLLM(Large Language Model)推論を可能にします
第2世代Transformer Engine: このエンジンは、新しいマイクロテンサースケーリングのサポートと、NVIDIA TensorRT-LLMおよびNeMo Megatronフレームワークに統合されたNVIDIAの先進的なダイナミックレンジ管理アルゴリズムにより、4ビット浮動小数点AI推論機能を提供します
第5世代NVLink: NVIDIA NVLinkの最新バージョンは、GPUあたり1.8TB/秒の革新的な双方向スループットを実現し、最も複雑なLLM向けに最大576基のGPU間のシームレスで高速な通信を保証します
RAS Engine: Blackwell搭載GPUには、信頼性、可用性、保守性を高めるための専用エンジンが含まれており、AIベースの予防保守を利用するチップレベルの機能を追加し、診断を実行し、信頼性の問題を予測します
セキュアAI: 高度なコンフィデンシャルコンピューティング機能は、新しいネイティブインターフェイス暗号化プロトコルのサポートにより、パフォーマンスを損なうことなくAIモデルと顧客データを保護します
解凍エンジン: 専用の解凍エンジンは最新の形式をサポートし、データベースクエリを高速化し、データ解析とデータサイエンスで最高のパフォーマンスを実現します
これらの特徴により、Blackwell GPUは、AIとアクセラレーテッドコンピューティングの分野での大規模な計算ニーズに応えるための強力なソリューションとなっています。
説明4)水冷式ラックスケールソリューションは、NVIDIAのGB200 NVL72として知られており、AIとハイパフォーマンスコンピューティング(HPC)のために設計された先進的なコンピューティングプラットフォームです。このシステムは、以下のような特徴を持っています:
72-GPU NVLinkドメイン: GB200 NVL72は、72個のGPUを統合して1つの巨大なGPUとして機能させることができます。これにより、データセンター内のすべてのGPU間で高速かつシームレスな通信が可能になり、兆単位パラメーターの言語モデル(LLM)推論を30倍高速化することができます
水冷システム: このシステムは水冷式であり、計算処理密度を高め、使用されるフロア面積を減らし、GPU通信を高帯域、低遅延にします。これにより、エネルギー効率が向上し、データセンターの二酸化炭素排出量とエネルギー消費を削減することができます
高速メモリと通信: GB200 NVL72は、NVLink Switch Systemを使用して、AIワークロードとHPCワークロードで毎秒130テラバイトの低遅延GPU通信を提供します。これにより、大規模なトレーニングや推論タスクが効率的に実行されます
エネルギー効率: 水冷GB200 NVL72ラックは、同じ電力でパフォーマンスが40倍になり、水の消費量を大幅に削減することができます。これにより、データセンターの運用コストと環境への影響を低減します
このような特徴により、GB200 NVL72は、AIとHPCの分野での大規模な計算ニーズに応えるための強力なソリューションとなっています。特に、兆単位パラメーターの言語モデル推論の高速化において、その能力を発揮します

説明5)NVLink Switch Systemは、NVIDIAによって開発された高速なマルチGPU通信システムです。このシステムは、大規模なデータセットを短時間でモデルに送り、GPU間でデータを高速に交換するための構成要素として機能します。以下はその主な特徴です:
高帯域幅: NVLink Switch Systemは、GPU間で毎秒最大1.8TBの直接相互接続を提供し、サーバー内でマルチGPUの入出力を拡張します
低遅延通信: このシステムは、高速な集合演算を可能にするために、各NVLink SwitchにNVIDIA SHARP(Scalable Hierarchical Aggregation Reduction Protocol)用のエンジンがあり、ネットワーク内のデータ送信量を減らし、マルチキャストで高速化します
スケーラビリティ: NVLink Switchを使用すると、NVLink接続をノード間で拡張し、シームレスで高帯域幅なマルチノードGPUクラスターを構築できます。これにより、データセンターサイズのGPUが効果的に形成され、大規模なモデルを並列処理します
NVLink Switch Systemは、エクサスケールコンピューティングや兆単位パラメーターのAIモデルの可能性を最大限に引き出すために重要な技術であり、NVIDIAのデータセンターソリューションの中核をなす要素です

説明6)水冷GB200 NVL72ラックは、NVIDIAが開発した最先端のデータセンター向けコンピューティングソリューションです。このシステムは、特にAIとハイパフォーマンスコンピューティング(HPC)の分野での使用を目的として設計されており、以下のような特徴を持っています:
高密度の計算能力: 36個のGrace CPUと72個のBlackwell GPUを1つのラックスケールデザインで接続し、大規模な計算能力を提供します
水冷式ラック: このシステムは水冷式であり、計算処理密度を高め、使用されるフロア面積を減らし、GPU通信を高帯域、低遅延にします
NVLinkドメイン: 72-GPU NVLinkドメインを利用して、1つの巨大なGPUとして機能し、兆単位パラメーターの言語モデル(LLM)推論を30倍高速化します
エネルギー効率: 同じ電力でパフォーマンスが40倍になり、水の消費量を大幅に削減することができます
これらの特徴により、GB200 NVL72ラックは、AIとHPCの分野での大規模な計算ニーズに応えるための強力なソリューションとなっています。特に、兆単位パラメーターの言語モデル推論の高速化において、その能力を発揮します。

説明7)NVIDIAの水冷GB200 NVL72ラックが40倍もエネルギー効率が良くなる理由は、以下の技術的進歩によるものです:
水冷システム: 水冷システムは、従来の空冷システムに比べて熱効率が高く、同じ電力でより多くの熱を効率的に排出できます。これにより、計算処理密度を高め、使用されるフロア面積を減らし、GPU通信を高帯域、低遅延にすることができます
高性能GPU: GB200 NVL72ラックに搭載されているBlackwell GPUは、高度な計算能力を持ち、AIワークロードを効率的に処理することができます。これにより、必要な計算処理に対して消費されるエネルギーが大幅に削減されます1。
NVLink Switch System: このシステムは、GPU間で毎秒最大1.8TBの直接相互接続を提供し、サーバー内でマルチGPUの入出力を拡張します。高帯域幅と低遅延通信により、エネルギー効率が向上します。
最適化されたアーキテクチャ: GB200 NVL72は、大規模なNVLinkドメインアーキテクチャでGPU通信を高帯域、低遅延にすることができ、計算処理密度を高めることができます。これにより、エネルギー消費を削減しながら、パフォーマンスを向上させることができます。
これらの技術的進歩により、NVIDIA H100空冷インフラと比較して、GB200は同じ電力でパフォーマンスが40倍になり、水の消費量も大幅に削減されるとされています。このような進歩は、データセンターの運用コストと環境への影響を低減するために重要です。

いいなと思ったら応援しよう!