AI半導体を支えるHBM市場動向【更新】
韓国SKハイニクスは世界1位のAIメモリープロバイダーです。
世界DRAM 市場規模は 2023 年に 1,105 億 7,000 万ドルと評価され、市場は 2024 年の 1,158 億 9 千万ドルから 2032 年までに 1,939 億 7 千万ドルに成長すると予測されており、予測期間 (2024 ~ 2032 年) 中に 6.7% の CAGRとなります。
世界高帯域幅メモリ (HBM) の市場規模は、2022年の7億6,712万米ドルから、予測期間中は68.08%のCAGRで推移し、2029年には398億5,793万米ドルの規模に成長すると予測されています。
~引用~
SKハイニックスが世界で初めて広帯域メモリー(HBM)第5世代のHBM3Eの12層製品の量産に入った。 3月にHBM3Eの8層製品を業界で初めて人工知能(AI)半導体市場の大口顧客である エヌビディアに納品して6カ月で性能を向上させ市場支配力を高める足がかりを用意した。 SKハイニックスは26日、現存HBMで最大容量となる36ギガバイトのHBM3Eの12層製品を世界で初めて量産し始めたと明らかにした。既存のHBM3Eの最大容量は3ギガバイトDRAMチップ8個を垂直積層した24ギガバイトだった。 SKハイニックスは既存8層製品と同じ厚さでDRAMチップ12個を積層し容量を50%増やした。このためDRAM単品チップをこれまでより40%薄くし、シリコン貫通電極(TSV)技術を活用して垂直に積み上げた。 薄くなったチップをより高く積む時に生じる構造的問題も解決した。 SKハイニックスは自社の核心技術であるアドバンスドMR-MUF工程を適用して前世代より放熱性能を10%高め、反り現象制御を強化して製品の安定性と信頼性を確保したと説明した。 SKハイニックスの12層量産製品は年内にエヌビディアに供給されるものとみられる。 今回の製品の動作速度は現存メモリー最高速度である9.6Gbpsに高まった。これは今回の製品4個を搭載した単一グラフィック処理装置(GPU)でメタのオープンソース大規模言語モデル(LLM)の「ラマ3 70B」を駆動する場合、全700億個のパラメーターを1秒当たり35回読み出すことができる水準だ。
【メモリ市場動向】
【DRAM マーケットシェア】
【調査会社報告書】
【HBM3e】
~引用~
TrendForceによると、2025年にHBM市場が供給過剰に陥る可能性に対する懸念が出てきており、DRAMメーカー各社が2025年に計画通りにHBM3eの生産を増強できるのかどうか不透明な状況になりつつあるという。
同社によると、HBM3e 12-Hi(12層品)の生産で安定した歩留まりを達成するための学習曲線が急峻に推移した場合、それに伴う生産能力の過剰がどの程度発生するのかどうかを判断するのは難しいためだという。すでにSamsung Electronics、SK hynix、Micron Technologyの3社ともに2024年第3四半期までに最初のHBM3e 12-Hiのサンプルを顧客に出荷。現在、顧客側での検証が進められており、中でもSK hynixとMicronについては2024年末までに顧客側の検証が終わるものと予想されている。
【SKハイニクスの実力】