[DeepSeekR1使用]自分のローカルPC上でChatGPT-4oと同等のAIを無料で使用する方法
冒頭
今回は、
無料かつローカル環境でChatGPT-4oと同等の性能を持ったChatAIを使用する方法をお伝えします。
使用するAIモデルは今話題の
DeepSeek
というものです。
DeepSeekとは
中国の人工知能(AI)企業で、アメリカの主要企業に匹敵する高度なAIモデルを開発しています。 ヘッジファンドマネージャーの梁文峰(Liang Wenfeng)氏によって設立され、複雑な問題解決や高度な推論を目的としたモデル、例えばDeepSeek-V3やDeepSeek-R1を開発しています。 これらのモデルは、Chatbot Arenaなどのプラットフォームで世界トップ10にランクインし、限られたリソースにもかかわらずその能力を示しています。(参考)
DeepSeekのアプローチの注目すべき点は、強化学習などの革新的なトレーニング手法に依存し、AI開発の一部の従来のステップを省略していることです。 この戦略により、広範なハードウェアリソースを必要とせずに効率的なモデルの開発を可能にしています。 さらに、DeepSeekはオープンソースの哲学を採用し、モデルを公開し、競合他社と比較して大幅に低価格でサービスを提供しています。 この動きは業界全体の価格調整を引き起こし、MetaのチーフAIサイエンティストであるYann LeCun氏のような専門家から、オープンソースモデルがプロプライエタリモデルを凌駕する可能性の証拠として注目されています。(参考)
そんな、DeepSeek-R1を今回はMacのローカル環境で動かしてみたい人向けの手順を解説します。
llama.cppを使ってGhatGPTライクな環境構築を行います。
それではいきましょう。
手順1. モデルをダウンロード
huggingFaceからmmngaさんがgguf化してくれたモデルをダウンロードします。
メモリが少ないPCをご利用の場合はこちらのモデルをおすすめします。
メモリなども十分に積んでいる場合は下記でも良いと思います。
手順2. llama.cppをbuild
llama.cppはソースコードが公開されているので、ソースコードをダウンロード後自分の環境に合わせてコンパイルすることで利用できるようになります。
以下の手順で動作環境を整えていきましょう。
llama.cppのダウンロード
gitを使ってソースコードをgithubからダウンロードします。
git clone https://github.com/ggerganov/llama.cpp.git
ダウンロード後、llama.cppディレクトリに移動します。
cd llama.cpp
モデルファイルの設置
事前にダウンロードしておいたモデルファイルをllama.cpp内のモデルファイルに移動します。
modelsファイル内に予め移動させておいてください。
llama.cppのコンパイル
以下のコマンドでllama.cppをmac用にコンパイルします。
cmake -B build
cmake --build build --config Release
少し時間がかかりますが、下記のように
[100%] Built target llama-q8dot
表示されたら完了です。
これで環境構築は完了です。
手順3. llama.cppサーバの起動
llama.cppディレクトリ内で以下を実行します。
〜.ggufの部分はダウンロードしたモデルに合わせて適宜修正して下さい。
./build/bin/llama-server -m models/DeepSeek-R1-Distill-Qwen-14B-Q4_K_M-00001-of-00001.gguf --port 8080
手順4. サーバへアクセス
起動した際のメッセージに従い、http://127.0.0.1:8080にブラウザでアクセスしてください。
手順5. 使用してみる
実際にプロンプトを投げてみましょう。
モデルによっては、あまり良い回答をしてくれないものもありますので、ご注意ください。
最後に
いかがだったでしょうか。
DeepSeekのオープンソース化に伴いAI産業の競争がかなり激しくなってきました。
ますます今後の動向が気になります。
以上、時間がある時にでも試してみてください。