見出し画像

クリックするだけ!ローカルLLMを入れよう!PART2 LM Studioで噂のDeepSeekを日本語で試す!

前回は7Bを入れて日本語でまともな会話ができなかったので、CyberAgentの32Bを入れたいと思います。
やっぱり簡単だったので、速攻でnoteに書くことができました!

↓ 下記が前回の記事です


今回、一番悩んだのはココです。どこからLLM追加するのか探しましたところ。右下の「歯車マーク」から行けるようです。

今回、最大の難所

クリックすると設定画面が出るので左上の「ModelSearch」をクリックするとLLMを検索できます。ついでにLanguageで日本語に切り替えましょう。

色なども変えられます

こちらが検索画面です「cyberagent」でokです。

下記のように、似たようなのが沢山出てきますが、それぞれ何か後ろに文字が追加されているのは、量子化(軽量化)など何か改良されているタイプのようです。通常、精度は落ちる場合が多いようですが、モノによって違うので詳細は不明です。

特にネーミングルールは無いですが
何か軽量化や改良がされています

ダウンロード数が圧倒的な、14B、32Bが、それぞれあります。
まずは32Bを試してみます。

18.64G🍵

ダウンロードが完了したら「Load Model」でモデルを読み込みます。

というかクリックするだけなので
そんなに細かく
説明しなくてもいいのかな

読み込みが終わると利用可能になります。。

マスコットキャラのインベーダー

さっそく前回7Bと同様の質問から。。。

ハロー?
キタ――(゚∀゚)――!!

ただし、私のスペックでは残念ながら1分20秒もかかりました。。。
まるで前回の7Bの人が裏で一生懸命考えて喋っているかのような速度です。。
※私は RTX3060Ti で VRAMが8Gしか無いです。。
ChatGPTに聞いたスペック対応表です ※参考程度に

ChatGPTにDeepSeekの質問

とりあえず前回と同じ質問をしてみます。

というか IchegoKurosawaって誰だ?
キタ――(゚∀゚)――!!

7B と同じ雰囲気なのに、急にまともに返答されると、当時のおかしな返答の記憶が蘇りましたが、まともな結果です!
クロサワを黒川と伝えてるので少しおかしいですが、ウソの返答じゃないのでOKです。32Bでも日本語利用はギリギリ?
ただし処理時間が2分56秒なので、やはり7Bの人が裏で一生懸命考えているようです。

ということで、早速14Bを試してみたいと思います!


14Bのモデルをダウンロード

8.52G🍵

とりあえず同じの

3回目のこんにちわ

来ました。48.40秒、カワイイ絵文字付き

「こんにちわ、日本語は理解できますか?」
7B = 0.29秒
14B = 48.40秒
32B = 1分29秒

ちなみに私のPCの結果なので高スペックのグラボなどを積んでいるならもっと早いかと思います。
また、リソース割り当ての設定変更、チューニングもできるようですが、今回は特に設定はいじってない初期状態です。
それでもリソースギリギリまで使ってましたが。。

とりあえず、同様にこっちもやっておきます。

もういい?
あれ?二郎のリンク付き

「IchigoKurosawaとは誰ですか?」
7B = 2.53秒
14B = 1分2秒
32B = 2分56秒

7B圧倒的に早いですね。。。
ちなみに下記がURL
https://ichigo-kurosawa.com/
そんなサイトありませんでした。。
そして、長男は、久雄。
7Bと32Bの中間の14B。。。これがハルシネーションってやつでしょうか。。。それっぽい返答で間違えている。。

まとめ

と。。とりあえずローカルLLMとして提供されているのはウレシイですね。
いろいろな利用用途や今後の期待が大きいです。
当然の結果ながら、32Bの返答内容が一番良かったと思いますが、遅いのでもっとスペックの良いPCを買わないとです。。。
また今度、いろいろ挑戦してみたいと思います!

いちおう補足ですが、公式などで利用できるのは桁違いでパターンが巨大で賢いので勘違いしないように。。最新、公式だと2025/02/06現在
DeepSeekV3で671Bとのことです。

いいなと思ったら応援しよう!

umanikomi
よろしければサポートお願いします🙏いただいたサポートは更新の活動費に使わせていただきます!