
何かと話題な中国発のAIモデル「DeepSeek-R1」をローカルで動かす簡単な方法
お久しぶりです、Zakinuです。
中華AIが一気に台頭してきましたね。
2024年まではOpenAIのChatGPTが業界を率いていた印象が強いですが、今年はその勢力図に変化が現れるのか興味を持っている方が多いのではないでしょうか。
さて、本記事ではOllamaを用いることで簡単に「DeepSeek-R1」をローカルで動かしてしまおうというお話です。
Ollamaの導入
Ollamaとは大規模言語モデル(LLM)をローカル環境で実行できるオープンソースのAIツールのことです。
MetaのLlamaやGoogleのGemmaをローカルで動かす際によく使われている印象ですね。
まずは下記のリンクから自分の使用しているOSに適したOllamaをダウンロードしましょう。
ダウンロードが終わったら画面の指示に従ってセットアップ完了まで進めます。
次にコマンドプロンプトを起動し、次のコードを実行します。
ollama
以下のようなものが出力されればOllamaのインストールに成功しています。
(表示されない場合はインストールに失敗している可能性が高いのでもう一度行いましょう)
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --help help for ollama
-v, --version Show version information
Use "ollama [command] --help" for more information about a command.
お疲れさまでした。
これでOllamaの導入は完了です。
DeepSeek-R1の導入
次にOllamaを使って「DeepSeek-R1」の導入を行っていきます。
まず、下記のリンクにアクセスしましょう。
プルダウンから自分のPCスぺックで動作するモデルサイズを選択しましょう。
今回は7bを選択します。

モデルサイズを選択したら、右に表示されているコードをコピーしてコマンドプロンプトにペーストして実行します。

すぐにモデルのダウンロードが始まるので完了するまで待ちます。

pulling manifest
pulling 96c415656d37... 100% ▕████████████████████████████████████████████████████████▏ 4.7 GB
pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏ 148 B
pulling 40fb844194b2... 100% ▕████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
>>> Send a message (/? for help)
ダウンロードが終了するとメッセージを送信できるようになるので、何か送ってみましょう。
>>> おはようございます
<think>
</think>
おはようご、! 今日も元気にスタートだね😊 何か予想外のethingcurring happening today?
>>> Send a message (/? for help)
一応会話にはなっていますね (日本語が不自然なのは置いておいて)
正直なところ、いくら高性能と謳っている「DeepSeek-R1」でも7Bまで小さくすればこんなものです。
32Bに同じく「おはようございます」と送ってみると、ちゃんとした日本語で返答がきました。
>>> おはようございます
<think>
Alright, the user greeted me with "おはようございます," which is a formal Japanese morning greeting. I should respond
politely in Japanese to match their formality.
I'll use "おはようございます!" to acknowledge their greeting warmly. Then, I can offer my assistance by asking how I
can help them today.
</think>
おはようございます! 今日は何かお手伝いできることがありますか?
>>> Send a m
会話を終了したいときは次のコードを実行するだけです。
/bye
ここまでOllamaの導入から「DeepSeek-R1」の導入までを解説してきましたが、
正直なところ7Bなどの小さなものは使い物にならないと感じますね。
「DeepSeek-R1」がGPT-o1に匹敵すると言われているのはあくまで671Bのモデルのことであり、到底家庭用マシンでは動かせないのが現状です。
Open WebUIなどを使用してローカルでRAGを組むとかの用途ならまだ使い道はあるとしても、日常使いならChatGPTやClaude、Geminiなどのほうがまだまだ使い勝手がいいです。
(気が向いたらOpen WebUIでRAGを組む方法を記事にしようとは思ってます…)
ですが、やはりオープンソースでローカルで動かすことができるというのは間違いなくメリットです。
いろいろと囁かれてはいますが、今後の動向に期待ですね。