見出し画像

おっさん初めての生成AI(環境構築編 その2)

前回、無事Stable Diffusionを導入することができ、早速画像を作成し始めました。プロンプトを工夫して入力することで、いろんな画像が簡単にできるのが楽しいですね。

北斎風の富士山と白波と東海道五十三次

ローカルLLMも動かしたい。

画像生成についてネットを徘徊しているうちに、今度はAMDでローカルLLMを動かしてみたくなり、今回もいろいろと試してみました。ローカルLLMを動かすPCのスペックは前回記載しておりますが、GPUは、AMD Radeon RX6650XTになります。

また、環境構築には、以下のサイトを参考にさせて頂きました、

LM Studio

いろいろなサイトで導入が手軽と紹介されていましたので、まずはLM Studioにチャレンジしてみました。AMDのサイトで紹介されている手順を参考に、LM Studioをインストールします。Windows用インストールファイルをダウンロードして、ファイルをダブルクリックで簡単にインストールできます。LM Studioを起動すると以下の画面になります。

LM Studio起動時の画面

画面の中央付近もしくは画面左端にある虫眼鏡アイコンをクリックすると、モデルを探したり、モデル実行プラットフォームの選択、ハードウェア設定が行えます。"Model Search"で、"TheBloke/OpenHermes-2.5-Mistral-7B-GGUF"を検索しダウンロードします。

モデルのダウンロード画面

ダウンロードが完了すると、"Load Model"のポップアップが出ますので、クリックするとチャット画面が表示されます。

LM Studioのチャット画面

次に、"GPU Offload"を"Max"にするのと、"Detected GPU type"が"AMD ROCm"であることを確認しようとしましたが、Settingsの画面が分からない。画面上部のモデル名の左にある歯車アイコンがSettingsだと思われますが、"GPU Offload"は"32/32"となっているので恐らく"Max"、"Detected GPU type"の表示が無いので正しくGPUが認識されているのかが良くわかりません。

Settings画面(恐らく)

ひとまずこの状態で適当にチャットしてみて、処理中のGPU使用率を見てみました。タスクマネージャーからは、正常にGPUが動いているように見えます。

チャット時のGPU使用率は正常のよう

虫眼鏡アイコンからHardwareを見ると、GPUは正常に認識されています。

Mission ControlのHardware画面

ただし、よく見るとVulkanの文字が・・・

GPUはDetectされていますがROCmではなくVulkan

どうもこれが原因のようです。Runtimeも確認してみますが、やはりROCmのRuntimeがインストールされていません。 

Mission ControlのRuntime画面(Compatible Only)

インストールできるのかどうか確認するため、"Compatible Only"から"All"に切り替えてみると、"Not Compatible"って表示されています。

Mission ControlのRuntime画面(All選択時)

だめじゃん!ROCm使えない!
ただ、ここでいろいろと疑問が湧いてきました。
・Vulkan、CPU、ROCm、CUDAの違いって?
・そもそもllama.cppって何?
・Vulkanはだめなの?ROCmじゃないとだめなの?
などなど・・・

ということで、ネットの力で見よう見まねでやってきましたが、やはり知識不足すぎて難しすぎる。もう少し勉強が必要そうです。
尚、LM Studioの操作感についてですが、ChatGPTと同じくらいのレスポンスです。手持ちのGPUは1つだけなので、GPUの種類や性能による違いや、モデルの大きさなどによって変わってくるのかもしれませんが、少なくとも私の環境では、快適に使えています。
基礎勉強も進めつつ、いろんなモデルを試してみたいと思います。

最後までお付き合いいただきありがとうございました。

いいなと思ったら応援しよう!