自宅環境でLLMの環境を作ってみた
背景
生成AIはChatGPTを使って、調べごとやお仕事で使っているが、一般公開できない内容をChatGPTでは書くことはできない。生成AIを組み込んで何かできないかのお勉強のため、自宅PCでLLMの環境を作れないかと考えてWeb上で調べていたところ、「LM Studio」というツールの存在を知った。それを使って、自宅PCでLLMの環境を作ってみたのでその手順を個人備忘録として記載。
※今回、初note投稿なので、うまく書けるかは微妙です。
環境説明
自宅PCスペック:
プロセッサ:11th Gen Intel(R) Core(TM) i5-11400 @ 2.60GHz 2.59 GHz
実装RAM:32.0 GB (31.8 GB 使用可能)
GPU:NVIDIA GeForce GTX 1660 SUPER
利用したモデル
読み込ませたモデル:
ELYZA-japanese-Llama-2-7b-fast-instruct-q5_K_M.gguf
open_gpt4_8x7b.Q4_K_M.gguf
※色々試したけど、下のopen_gpt4_8x7b.Q4_K_M.gguf方が色々返ってくるのでこちらにした。
事前に必要なツール
ChatGPT (色々分からないことは、ChatGPTで質問していた、なら、わざわざ作らんでもというのはあるが…)
※ChatGPTは4.0を使っています。有料まで使ってるのに…
何はともあれ、LM Studioをインストール
LM Studioをサイトからダウンロードする。
このあたりは、Webで調べたらあったので調べまくった形。
以下、サイトの画面です。(2024/01/27現在)
私の使っているのはWindowsなのでWindows版をダウンロード。ダウンロードが終わったらインストールしました。
インストール後、LM Studioを起動すると以下のような画面が出ます。(こちらも2024/01/27現在)
モデルを落としてくる
センターのところからモデルを検索することができます。他には、左バーの虫眼鏡のところからでもできます。
まず、「ELYZA-japanese-Llama-2-7b」と入力してもらうと以下のような画面になります。
ここから一応PCとして使えそうなので、「ELYZA-japanese-Llama-2-7b-fast-instruct-q5_K_M.gguf」を入れてみました。
こちらを入れて、LM Studioの左バーにある、白色の吹き出しみたいなアイコンがあると思いますので、そこをクリック。
画面の上の方に添付したようなものがあるので、そこでダウンロードしたモデルを選択します。選択すると読み込むのにちょっと時間がかかります。
この吹き出しのところでChatGPTのようなことができます。
実は、ここでチャット使っていたのですが、やはり、ChatGPTとは差が出てくるなと思い、他ないかなとモデルを調べて、個人的に割といけるかもと思ったのが試した「open_gpt4_8x7b.Q4_K_M.gguf」というモデルでした。
割と容量が大きいのと、大きい奴は私のPCスペックではダメっぽいのでDownloadも無理でした。
これでLM Studioを使ってChatGPT風にはローカルでできるなと一段落。
まとめ
割と簡単に自宅PCに入れることができたのが驚き。
後、PCのスペックが無くても小さなモデルを入れたら、全然動きます。
調べてて分かったのは、LM StudioってHTTPサーバー機能があって、アプリとか作ってそこから生成AIを使ったりできるようなので、そのあたり遊べないかなと思っています。(このNote書きながらPythonアプリを作ってHTTPサーバーとお話させたり…次はそちらの備忘録を書きたいな。)
この記事が気に入ったらサポートをしてみませんか?