GPUを制するものが生成AIを制する
俄然、GPU関連の競争が激化している。最近の注目するGPU関連の記事の要約を以下に掲載している。
生成AIの膨大な演算資源は、事業者の経営に大きな打撃を与えているので、現在の無料、または低額課金では早晩、ビジネスモデルが悲鳴を上げるだろう。
高額有料課金での囲い込みが、起きることも予測される。既に生成AI無しではビジネスが運営できなくなっているケースも増えている。過度に依存せずに、プロダクトをマネジメントする必要性がある。
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦
業界の内部で知られていたが、最近ニュースになりつつある事実について明らかにする。AI開発には計算資源が不可欠で、NVIDIAがその独占的地位を持っている。他の半導体企業のAI特化製品は実際にはほとんどが誇大宣伝であり、例外はわずか。Apple SilliconなどもAI学習においてNVIDIAに比べ遅いことが問題視されている。
他にもAMDやSambaNovaといった企業も性能に課題を抱えている。一方で、Meta(Facebook)やTeslaなどは大量のGPUを確保し、AI開発に取り組んでいる。日本の計算資源は他国に比べて極めて少なく、AI分野での競争力が低い状況である。
GPUは時間短縮に効果的であり、VRAM容量と数が重要な指標。日本のABCI計算資源は他国に比べて不足しており、大規模なモデルの開発が難しい状況。日本企業も大規模言語モデルの開発には高コストがかかる。最新世代GPUの供給不足もあり、競争が激化している。このままでは日本のAI戦力が大きく遅れる可能性があり、解決には多額の資金が必要とされる。
シリコンバレーでは「GPU不足」が話題
生成AIの注目度が高まる中、シリコンバレーで「GPU不足」が大きな問題となっている。OpenAIのChatGPTやグーグルのBardなどで使用される大規模言語モデル(LLM)の開発・運用にはGPUが必要で、NVIDIAの供給が需要に追いつかず深刻化。特にNVIDIAの「H100」GPUの需要が増加し、取得競争が激化。これまでA100に注目されていたが、生成AIへの関心が高まり、GPUの資金量も増加。A100は1台約1万ドル、H100は1台で約4万ドルと報道され、大規模言語モデルの開発には数千~数万のGPUが必要で、資金も増大している。
生成AI向けでNVIDIAを追撃、AMDが超高性能GPGPU
AMDが新しいサーバー用マイクロプロセッサー「EPYC」を発表。競合製品としてIntelの「Xeon Scalable Processor」を挙げた。また、生成AI向けGPUで競合するのは、NVIDIAの「H100 GPU」。AMDの新製品「MI300X」は、H100よりも大容量なメモリと高い帯域幅を持ち、大規模な言語モデルを効率的に処理可能。800億パラメーターの言語モデルもサポートする。
この記事が気に入ったらサポートをしてみませんか?