今さら聞いてもいいIT用語 #21: 「GPU」
最近、生成AIニュースに絡んで耳にすることが多くなった「GPU」について、こっそり学んでいきましょう。
GPU(Graphics Processing Unit)とは、主に画像描写を行う際に必要となる計算処理を行う半導体チップ(プロセッサ)のことです。
実はみなさんがお使いのパソコン💻️にも搭載されてます。
Excelとかマインクラフトとかさまざまなアプリケーションを使うわけですが、モニターへの画面表示がないと操作できませんよね?
その画像処理を専門に扱うプロセッサがGPUです。GPUがなければ、画面表示ができません。
ExcelやWordなどのオフィスソフトであれば、GPUの性能はあまり気にする必要はないかもしれませんが、たとえば、3Dグラフィックスやデータ量の多い映像などをガンガン画面に映し出す際には、良い性能のGPUが必要になります。
では、CPUとは何が違うのか、またどのような役割分担なのでしょうか。
GPUは画像処理をする役割であるのに対し、CPUはCentral Processing Unit、中央演算処理装置という名前にあるとおり、司令塔のような役割を果たします。
パソコンで画像を表示するときには、まずCPUが「画像を表示する」という命令と必要なデータの処理をした後、画像処理に関する作業をGPUへ引き渡すといった流れです。
まとめると、CPUはパソコンを動かす司令塔であり、GPUは、先にもお伝えした通り画像処理を専任する専門家という役割分担になります。
画像処理を担うGPUが、なぜAIに使われるようになったのか、気になりますよね?
それは、GPUがある処理を同時並行で大量にこなすのが得意という点が関係しています。
CPUやGPUの内部の処理ユニットのことをコアといいまして、コアは1度に1つのことしか処理できません。
そのコアの数に関して、CPUのコアは多くても数十個ですが、GPUの場合コアの数は数千にもおよび、大量のデータを並列処理することが得意なのです。
この性能を活かして、画像処理以外に科学技術計算や他のことにも使おうという流れになったわけですが、その一つ、そして大きな分野がAIだったというわけです。
生成AIのエンジンとなる大規模言語モデル(LLM)を開発・運用する際には、大量のデータを処理し、複雑な数学的演算をします。並列処理の特性を持ち、同時に多くの演算を行えるGPUが必須ともいえるハードウェアなのです。
さて、そのGPUですが、世界でその圧倒的シェアを誇るのがNVIDIAという会社です。
NVIDIAは画像処理向けGPUの分野で業界をリードし続けてきたわけですが、昨今の生成AIブームでGPUが注目された流れで、AI分野でもリーダー的存在になっています。
生成AIの開発などに使われるデータセンター向け半導体の世界シェアの8〜9割を握るとも言われており、その株価は過去1年間で200%以上も急騰。6/5には同社の時価総額が初めて3兆ドルを超え、Appleを上回ったと報じされました。
どうしてNVIDIAはそこまで絶好調なのでしょうか?
それは、LLMの開発に大量のGPUが必要であり需要が急拡大しているという事情があります。
ChatGPTのLLMの1つであるGPT-4の開発では、NVIDIAのGPU「A100」が1万~2万5000個ほど使用された可能性があるとされています。
また、OpenAIがGPT-5の商標登録を行ったとの報道がありましたが、この開発にはA100より新しく、性能のよい「H100」が2万5000個必要とモルガン・スタンレーが予想しました。
ここで登場するGPU「A100」「H100」のお値段はいくらかというと…
・A100は約240万円
・H100は約500万円
だそうです。H100が万単位で必要と考えると、相当な金額になります。
LLMの開発・運用には大量のGPUが必要になり、そしてGPUがたくさんあればあるほど、より優秀なLLMを、よりスピーディに開発して世に送り出すことができるのです。
LLM開発競争の中、OpenAI、Goolge、Anthropic、Metaなどテック企業はGPUをなるべく多く手に入れようと競うことになります。しかし、その供給についてはNVIDIAが独占的ともいっていいシェアを持っているので、競争が激しくなればなるほど、NVIDIAが儲かるという仕組みです。
これについてはIntelやAMDなどの半導体メーカーも黙ってはいないと予想されるので、永久に一強というわけにはいかないという意見もあります。
いずれにしても、生成AIブームの裏にGPUブームがあるという話ですね。GPUのニュースに関しても、今後ウォッチしていきましょう。
耳から聴きたい方はこちら!
↓↓