見出し画像

【簡単】DeepSeek R1 ローカルで使う GPUなしで CPUのみ

話題のDeepSeek

ブラウザ版とAndroid版のを普段から使ってきていたが,
なんせ中国の会社なので突然サービス終了したりするかもっと思ったので(根拠ない),
ローカルで動かしてみたかった.

自分の環境は 独立GPUなし i5-1340p(AVX2命令セット対応)16GB RAM

LM studioをインストール.

まずは,LM studioをインストール.いろんな
Locall LLMが動かせるやつです.

https://lmstudio.ai/

適当なモデルを選んでダウンロード

https://lmstudio.ai/model/deepseek-r1-llama-8b

”Download and run DeepSeek R1 Distill (Qwen 7B)”
をクリックして,LM studioで開くだけ

(これはDeepSeek-R1ですが、CPUなしでも動く軽めのモデルです)

ダウンロードが完了したら

Load Modelってのをクリック


LM Studio -0.37

もしも以下のようなエラーが起きたら


RuntimesってとこからCPU llama.cpp (Windows)をインストールしましょう


いざ会話開始

Chatメニューに行って

モデルを選んで新しいChatを始めましょう


できました

ネットなしでも動くとちょっと感動ですね.

いいなと思ったら応援しよう!