【簡単】DeepSeek R1 ローカルで使う GPUなしで CPUのみ
話題のDeepSeek
ブラウザ版とAndroid版のを普段から使ってきていたが,
なんせ中国の会社なので突然サービス終了したりするかもっと思ったので(根拠ない),
ローカルで動かしてみたかった.
自分の環境は 独立GPUなし i5-1340p(AVX2命令セット対応)16GB RAM
LM studioをインストール.
まずは,LM studioをインストール.いろんな
Locall LLMが動かせるやつです.
適当なモデルを選んでダウンロード
https://lmstudio.ai/model/deepseek-r1-llama-8b
”Download and run DeepSeek R1 Distill (Qwen 7B)”
をクリックして,LM studioで開くだけ
(これはDeepSeek-R1ですが、CPUなしでも動く軽めのモデルです)
ダウンロードが完了したら
Load Modelってのをクリック
もしも以下のようなエラーが起きたら
RuntimesってとこからCPU llama.cpp (Windows)をインストールしましょう
いざ会話開始
Chatメニューに行って
モデルを選んで新しいChatを始めましょう
できました
ネットなしでも動くとちょっと感動ですね.