見出し画像

【ローカルAI入門機】RTX 3060 (12G)のすゝめ【コスパ最高】

ローカルでAIを利用する最大の利点は「自由」ですが、それを得るためには多少高性能なパソコンが必要になります。

高性能といっても、普及帯のゲーミングPCクラスの性能があれば、ローカルAI生成のほとんどを実行する事ができます。

ネットでAI技術を紹介している方の多くはモンスターレベルのパソコンを利用しているため、数十万円の本体+恐ろしい電気代のイメージがあるのかもしれません。

しかし実際には、ほとんどのAI処理において普通のゲーミングPCで問題ありません。参考として筆者のAI生成機のスペックは以下になります。

  • 【■ CPU ■】

    • AMD Ryzen5 3600

    • 今なら2〜3万ぐらい?

  • 【■ システムメモリ ■】

    • 32GB

    • W4U3200CS-16G×2

    • 今なら1万ぐらい?

  • 【■ マザーボード ■】

    • TUF B450-PLUS GAMING

    • もう古くて手に入らない?1万ぐらい?

  • 【■ ストレージ ■】

    • SATA SSDでRAID0

    • モデルファイルを読み込む時は800M〜1GB/s程度です

    • 今なら1T容量で1万ぐらい?

    • バックアップ用に4TBのハードディスクも利用してます

  • 【■ GPU ■】

    • NVIDIA Geforce RTX 3060 (12G)

    • 今なら4万ぐらい?

円安の影響でしょうか、数年前に購入した時とお値段が変わってないような…


AI向けPCは、ゲーミングPCと比べて注目する予算配分が少し異なると思います。

  • 【■ ゲーミングPC ■】

    • GPUはNVIDIA/AMDでもどちらでも構いません

    • より高速に処理できるGPU

    • コスパ最大の指標はゲーム中におけるFPSの値

    • 搭載GPUを基準にして、ボトルネックにならない程度の高性能CPUと各種バスインターフェース速度(メモリやPCI-Express速度など)

    • 4K画質を目指すなら大容量GPUメモリも必要。ただし、そもそもFull-HDにおけるFPSが低ければ意味がありません

    • システムメモリは16GBが一般的で、それ以上搭載してもゲームの操作感やFPSが上がる事はありません

  • 【■ AI向けPC ■】

    • GPUは事実上NVIDIA一択です。

    • ソフトウェア動作の可否を決定づけるのはGPUメモリ容量 ※ どんなに高速なGPUでも、GPUメモリが足りなければ(遅いではなく)動作しません

    • GPUにメモリ利用量を削減できるtensorコアを搭載していること(NVIDIA RTXシリーズ)

    • 基本的にAIは科学計算用途なので、システムメモリも大量に利用します。Stable Diffusionなら16GBで動作しますが、FLUX.1であれば32GBでも厳しいです。

    • もちろんGPU処理速度も重要です。しかしゲームの場合は 55FPSと60FPSでは天地ほどの差が出るため、そこに数万円投資する価値はあるかもしれませんが、AI生成の場合、生成時間が55秒と60秒では、実質的な用途として全く変わりません。

    • CPUは適当でいいです。Windows 11が動作するレベルであれば、AI生成速度にほとんど影響しません。CPUが担当する処理は、データをGPUメモリに転送したり制御するだけです。しかもPython言語のシングルスレッドです(コアが多くても意味なし)。

    • ※ ただし互換性の問題で、一部CPUでAIを動作させなければならない事もあります。

    • PCI Express 3.0/4.0/4x/8x/16x の規格・速度は正味のAI演算には影響しませんが、AI巨大モデルファイル読み込み等のNVMeストレージのシーケンシャルREAD性能を要求されるので、モデルを頻繁に入れ替えたりする場合などで差が出ると思います。数秒の差であっても、インタラクティブな作業をする場合はストレスになります。2G〜10Gのファイル読み込みを頻繁に切り替える必要があります。

まとめると、ゲーミングPCではCPU/GPUの速度重視ですが、AI向けPCではCPU/GPUのメモリの大きさ重視になります。

そして、このGPUメモリだけがアンバランスに巨大で、AI生成入門GPUの申し子のような存在がRTX 3060 (12G)です。発売当時はドライバが未熟だった事もあり、前世代と比べてゲーム性能が変わらず、使いどころがなく無意味な12GBの大GPUメモリも批判されていました。

しかし、ゲームでは無駄とも言えるGPUメモリ12GBの大容量ですが、AIブームと共に注目されるようになりました。同世代上位の3070が8GB、3080が10GBで、現在の4060ですら8GBですから。

もちろん余裕があれば、4060ti (16GB版)でしょうが、まだ8諭吉(栄一?)は必要そうで、3060の代替とはいかないようです。

あと、RTX 3060 には 8GB版と12GB版があるので注意が必要です。※ さらにDDR6X版やTiと同じコア・コードネムGA104版のバリエーションもあるようですが、こちらはそれほど気にしなくても良いと思います。

以下、関連記事の【PR】です。


この記事が気に入ったらサポートをしてみませんか?