見出し画像

Mac mini M4 Proのお値段は高すぎる気がしたので調べてみた

今週、アップルはM4シリーズを搭載した新しいMacを発表している。注目されているのをわかっていながら、あえて地味にぽつぽつと小出し発表するのはきっとトレンドのマーケティング手法なのだろう。

注目はMacBook Pro...…はまだ発表されていないので、10月30日のタイミングではMac miniのM4 Pro搭載モデルが注目だ。

Mac mini M4 Proでは、生成AIで真っ先にボトルネックになるメモリ帯域幅が273GB/sとなった(多くの予想では240GB/sだった)。M4無印とメモリ規格はLPDDR5Xで同じながら、iPad Pro M4やiMac M4などがLPDDR5X-7500を採用しているのに対して、Mac mini M4 Proはより高速なLPDDR5X-8533を採用したことで実現した。インテルのCore Ultra 200VがLPDDR5X-8533をパッケージに統合したこともあり、プレミアムなモデルではもはや必須っぽい。

というわけで、生成AIの「速さ」でもっとも大切なメモリ帯域幅と、そのメモリ帯域幅を使いきるために必要なGPUコア数を軸にプロットしてみた。

noteではとても見にくいので あれこれ遊べるフィルターがついたレポートを共有 しておく。

M4 Proのメモリ帯域幅は、前の世代であるM3 Proと比べると80%もアップした。さらにその前の世代であるM2 Proと、さらにさらに前の世代であるM1 Proからは33%アップにとどまるので、M3 Proの150GB/sがいかに残念スペックだったかを改めて思い知らされる。

さて、本題。新しいMac miniのお値段についてだ。

  • Mac mini | M4 Pro | メモリ帯域幅 273GB/s | 64GB / 512GB

    • GPU 16コア → 308,800円

    • GPU 20コア → 338,800円(16コア構成から3万円アップ)

M4 Proは GPU 4コア追加で3万円 だ。あわせてCPUもPコアが2つ増えるが、生成AIしかみていないのでひとまず無視しておく。

比較対象として、M2 Maxを搭載したMac Studioを挙げる。

  • Mac Studio | M2 Max | メモリ帯域幅 400GB/s | 64GB / 512GB

    • GPU 30コア → 358,800円

    • GPU 38コア → 388,800円(30コア構成から3万円アップ)

M2 Max同士の比較では「GPU 8コア追加で3万円」だ。そして、Mac mini M4 Pro GPU 20コアとMac Studio M2 Max GPU 38コアを比べると GPU 18コア追加で5万円 だ。そのうえ、メモリ帯域幅は273GB/sから400GB/sに拡大 する。

なお、Apple Siliconは、GPUのコア数の16倍がEU(実行ユニット数)となり、さらにその8倍がALU(かつてのシェーダー数のようなもの?)となる。生成AIの処理は「GPUコア数の128倍の数のALU」が超並列でおこない、この掛け算はどの世代でも変わらない。生成AIの処理は単純すぎるがゆえ、GPUに追加されていく新しい機能による効率化はほとんど期待できない。よって「GPUコア数=生成AI処理性能」として、世代を無視して比べる のがよいだろう。

NPUは生成AIでは使われない...…が、Apple Intelligenceでは使われるようなので、無視せずにちょっと補足。

技術的な説明をまるっとはしょると、AI処理における「推論」は歴史的にはGPUによるFP32が標準で、その半分の時間とメモリで「わずかな精度低下で済む」FP16がNVIDIAで広まって、Apple SiliconではM1やM2もそのFP16でNPUを実装した。M1が11TOPS(TOPSはNPUの性能指標)、M2が15.8TOPSだ。

続くM3、そしてM4のNPUはそれぞれ35TOPS、38TOPSと、プロセッサー進化のプロセスを数段階すっ飛ばしたかのような劇的な性能アップを果たす。そのからくりはFP32からFP16のときと同じように、FP16の半分の時間とメモリで「けっこうイケる」と評されるINT8がNVIDIAで広まって、A17 ProやM3、M4がそのINT8でNPUを実装したからだ。つまり、技術革新があったわけではなく「演算方法を変えてもイケるとアップルが判断した」ことで性能倍増を果たしている。

かわいそうなのはiPhone 14 ProとiPhone 15で使われたA16で、FP16に対応するが、性能倍増のINT8には対応しない。A16はA17 Proとほとんど同じプロセッサーながら、このINT8「非対応」の一点だけでAI処理性能がA17 Proの半分のスペックとなり、Apple Intelligenceの対象から外された(あわせてメモリ容量も関係あるか)。iPad ProやMacBookのM1やM2も同じ境遇ながら、幸いにも、電力を食いバッテリーはもたなくなるが、NPUの何倍ものAI処理性能を出せるGPUをiPhoneの2倍ほどは持っているため、Apple Intelligenceの対象とできた、はず。

なお、最新のiPhone 16で使われるA18 ProのNPU性能は35TOPSで、A17 Proと同じ数値だ……けど「Apple Intelligenceの処理速度はA17 Proよりも15%高い」との注釈がついている。これはカメラや音声を対象としたリアルタイム処理ではiPhone 15も16も性能は変わらないが、メモリにロードした大きなサイズのモデルデータで演算しまくる生成AIの処理は、やっぱりメモリ帯域幅がボトルネックであることを表している。シンプルに、A18 Proのメモリ帯域幅はA17 Proの15%増しなのだ(51.2GB/s → 60GB/s)。

テキストばかりなのでアイキャッチの元画像を。AMD AmuseでモデルデータはiNiverse Mix XL。プロンプトはいつも適当でAI任せながら “light smile” は加えている。ので、"light" に引っ張られて人物が照らされがちになる。

で、本題に戻してざっと価格を並べると...…この価格差はちょっとしたバグかなにかで、どこかで修正される可能性もあるかなと想像してしまう。

  • Mac mini | GPU 16コア | メモリ帯域幅 273GB/s → 308,800円

  • Mac mini | GPU 20コア | メモリ帯域幅 273GB/s → 338,800円

  • Mac Studio | GPU 30コア | メモリ帯域幅 400GB/s → 358,800円

  • Mac Studio | GPU 38コア | メモリ帯域幅 400GB/s → 388,800円

生成AIのような極めて単純な演算のみの場合、あちこちの検証結果をみるとどうやら「MシリーズのGPU 10コアで使いきれるメモリ帯域は100GB/s」のようだ。となると、どれもよく言えば「余裕がある」、悪く言えば「無駄に広帯域」。もっとも、これはNVIDIA CUDAで作ったアプリをMetal(Apple Silicon)にもってきているからGPUしか使わないわけで、Apple Intelligenceが「生成AIの処理でメモリ帯域を60GB/sは使う」NPUで常に動いていたり、あるいは本気でネイティブの、CPUとGPUとNPUを並列でフルに使うような専用アプリを作ったとしたら、わりとあっさりとメモリ帯域幅がボトルネックになりそうではある。

ともかく「Mac mini、高すぎる」の直感は正しいと思う。今度ばかりは、アップルのサイトに赴いてうっかりマウスカチカチで注文するのではなく、ちょっと慎重になるのがよさそうだ。かといってMac Studioが安いかというと、まあ、やっぱり高いのだけど。

とまあ、Mac選びでメモリ帯域幅とGPUコア数だけ見るのは馬鹿げているように見えるが、生成AI界隈は「それしか見ていない」。いろんな見方があるのだ。