見出し画像

GPUの奪い合いは今よりも激化する

この記事では、GPUの売れ行きは落ちず、むしろ奪い合いが今よりも激しくなると考える根拠をまとめている。

DeepSeek社が、教師なし強化学習を使って、強力なモデルを作り上げた。そのときにかかった費用が通常よりはるかに安く抑えられたということで話題になっている。

もちろんDeepSeek社がこれまでに発表してきた様々なDeepSeekシリーズは非常に優れており、多くの情報も公開されていて「偉大」なのは間違いない。

ところが、それをもってしてGPUが不要という結論にはならない。

GPU不要論はこれまで何度も繰り返されてきたが、残念ながら現状の技術ではそうはならず、むしろ今回の件で、GPU奪い合いはより熾烈になる。

そう考える根拠を、「いま」「AGI/ASI達成後」の二つの視座でお伝えしよう。

なお、株式市場は、技術をあまり理解せずに、買いや、パニック売りをするような、謎の感情が支配的なため、株の話は一切しない。

いまGPUが必要な理由

LLM自体の開発(学習)には膨大なGPU資源が必要で、この流れが止まる可能性は低い。Transformerよりも圧倒的に優秀で、学習の仕組みが根本的に異なるためGPUでは効率的に計算できないものが登場したときに話は変わるかもしれないが、そのようなものが存在する気配は公になっていない。

たとえば「1/100のコストで開発する技術」が登場したことによって、世の中に必要なGPUの数は1/100になるだろうか? そうはならない。「1/100のコストで開発する技術」を使って「今までの100倍のトライ」をするからだ。AGI/ASIの実現、つまりシンギュラリティへの道筋が早まっただけだ。

元からGPU/TPUのような資源を大量に持っているBig Techは、より優位性が増すし、「1/100のコストなら参入するわ!」という会社や国家が出てきても不思議ではない。

LLMの開発は、国家安全保障に大きな影響がある。 DeepSeekのように「一国家の政治的理由による言論統制」が実装されることは、特に珍しい話でもない。同じことはアメリカでも起きている。

LLM APIは監視されており、例えば「テロに用いようとしたアカウントがBANされる」という実例もある。これはもちろんテロという悪質な行為だから当然だが、「悪いこと」の線引きは誰がしているか?そのLLM APIサービス提供会社やアメリカだ。

そもそも、「日本の法律上では問題ない問答」もアメリカや中国の基準によって「禁止」されている。 LLMとは異なるが、決済ネットワークのVISAは近年、日本のコンテンツに対する過剰な関与をしている。オタク婚活サイトでの決済停止や、エンタメサイトでの決済停止があった。

このように、国家や一企業の、なにがしかの理由により、容易に「言葉狩り」や「思想の偏り」は生じる。これらは文化的侵略につながる。これも過去の歴史を見れば明らかだ。

国家安全保障に影響があるのに、これまではあまり国が積極的にそこに乗り出してこなかった。費用が尋常ではなくかかってしまうからだ。これが「1/100」のコストでできるとしたら?

LLM開発の流れはここ数年で激しい限りだが、何回もゲームチェンジングな技術が登場している。さて、次にコストがさらに1/100になる技術が出て参加したくなったとき、参加するためのチケットが売り切れていた場合、どうすればよいだろうか。それはチャンスを逃すということだ。

GPUや、学習用のデータは、ゲームチェンジングを繰り返すこの世界においては、参加チケットなのだ。ましてや今回のDeepSeek R1は、推論・思考モデルと呼ばれる、合成データを生み出すのに適した技術だ。次のチケットをさらに生み出すためのものだ

1.58bitのように推論を高速化するアプローチはあるが、1.58bitのモデルを作るためには「学習」の工程が必要だし、1.58bitの推論で本当に十分なら、Microsoftを始めとした先行プレイヤーは「既に採用していてもおかしくない」が、1.58bitが「当時めちゃくちゃ驚かれた割に採用事例をほぼ聞かない」ことから察してほしい。

「いま」GPUを必要とする理由は理解できただろうか。

AGI/ASI後にGPUが必要な理由

AGI/ASIが達成されたとき、人類に何が生じるのだろうか?それはシンギュラリティと呼ばれ、計算によって、人類が持つ以上の知性が動き始めた世界だ。

そのとき、人類が見たことのない理論や計算式によって新たな科学が実装される。これまでの人類が持っていたそれよりもはるかに高精度で、気象予測、医療、物理など、人間が考えつく限りのものと、人間が考えもつかないものも、あらゆるものが更新される。

そのとき必要なのは、その新しい法則により計算するための資源(つまりスパコン)だ。

むしろBig Techが LLMの開発のためだけに巨額の資金を投じるだろうか?もちろんその先を見越しているはずだ。実際に、GoogleもOpenAIも、医療や科学にAIを使おうとしているし、ロボティクスにも資金を投じている。

もはや人類にとってAGI/ASIは、数年後(もしくは最速で今年)に訪れる通過地点に過ぎない。

1/100のコストでLLM開発が回るようになったあと、そのLLMが導き出す新たな理論に基づいて、新たな科学のために計算資源が使われるのだ。

Big Techが莫大な金額を投資しているのは、このAGI/ASIの先にある世界で「すべての計算」をするためだ。

AGI/ASIが達成されたとき、現在主流であるGPUは引き続き有利だ。動かすためのソースコードやライブラリが豊富に公開されていて、それは要するにLLMが操作するのに適している。

GPUスパコンよりも効率的でコードが書きやすい、安価なスパコンが登場すれば話は変わるだろう。それは量子コンピュータだろうか?将来的にはGPUから量子コンピュータへの移行も生じるかもしれないが、まだ量子コンピュータは現実的ではない。解決しなければならない課題が山積みであり、量子コンピュータの実現は現状ではムーンショット扱いだ。

実現するためには、人類はまだまだ大量の計算をして、量子コンピュータの実現方法を導き出さなければならない。

つまり、そこにたどり着くためにはGPUのような、現在ある技術での計算資源が必要なことには変わりない。誰よりも早く、次の次へ到達するためには計算資源が必要だ。

まとめ

「いま」「将来」においてGPUは必要だ。コスト削減によって逆に、この奪い合いはより激化する。

株価については知らん。

いいなと思ったら応援しよう!