見出し画像

MacBook Air 上でDeepSeekとphi-4を動かしてみた

 自分が普段使いしている MacBook Air 15インチ(M3、16GB、1TB-SSD)上で、オープンで公開されている LLM(大規模言語モデル)がどれくらい動くのか、使えるのか試してみた備忘録。
 実際に動作させたのは量子化(蒸留?)した小さい言語モデル。


使用したのは Ollama

LM(言語モデル)のAIを動作させる Ollama をMacにインストール

サイトから普通にDLしてインストール。

簡単な使用法

 Ollama のサイトのModels タブに、ollamaコマンドで動かすことができるオープンな LM(言語モデル)の一覧があるので、この中から使いたいものを選んで使用する。起動コマンドも言語モデルのページにあってコピーして使用できる。
 Ollamaの起動オプションで使えるコマンド一覧は次のとおり。

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

 例えば、Meta が公開している llama3.2 (3bのモデル、約2GB)を起動するコマンドは

ollama run llama3.2

で起動する。
 最初は指定された言語モデルをダウンロードしてくるので、プロンプトが出るまでしばらく待つ必要がある。プロンプト記号は「 >>> 」。
 プロンプト記号が出たらが出たら言語モデルに対するプロンプトを入力するだけ。
 流石にこのモデルは小さいのであまり実用的ではない。

停止するには、Ctrl + D を使う

DeepSeek を使ってみる

 セキュリティがあれこれ騒がれている DeepSeek だが、自前のMac内で動作させるには気にする必要がないので、お試しで使ってみた。
ollamaのModelsタブにある DeepSeek-r1 のモデルは1.5b, 7b, 8b, 14b, 32b, 70b, 671b とありますが、最大の 671b は400GB超えなので、つつましく9GB 程の 14b を動かしてみました。動作させるコマンドは次のとおり。

ollama run deepseek-r1:14b

phi-4 を使ってみる

 Microsoftがオープンで公開している言語モデルの量子化版 phi-4 をうごかしてみる。14b で約9GBのサイズ。コマンドは次のとおり。

ollama run phi4

 日本語で、地方都市に対する知識はどうなのか試してみた。
プロンプトは「盛岡駅の近くで美味しいランチが食べられるお店を5つ紹介してください」。

phi4 の回答

 回答のうち、実際にお店があるのは4番だけ(駅ビル内)で、他は存在しないお店だ。
 ちなみに、DeepSeek でも同じ質問をしてみたが、回答は同様に出てきたものの、店名部分が文字化けで全く読めなかった。
 14b, 9GB 程度の小規模言語モデルではこんなものかもしれません。
 店名が読めるだけ phi4 の勝ち(笑)

他に、よく使うコマンド

 もう、DeepSeek は使わないので削除するなどに使えるコマンド

# インストール済みの言語モデルを表示
ollama list

# インストール済みの言語モデルを削除(deepseek-r1:14b)
ollama rm deepseek-r1:14b

感想

 ざっと使ってみた感じでは、日本語情報がまだまだではあるものの、スペックが低いMacBook 上でも動作するAI(言語モデル)が使えるのは役に立つと思う。とはいえ、Google Chrome  で複数のページを開いたまま、ollama  を使っていると「メモリーの使用量が多くなっている」といったアラートが出てきます。流石に、ollama を動かすなら、他のアプリは動かさない方が良さそうです。
 数学的な問題を解くのが得意な言語モデルの wizard-math なども使ってみると面白いが、日本語のプロンプトよりも英語のプロンプトのほうが正答率が高いのはしょうがないのか。
 今の所、使ってみているというお遊びレベルだが、実用的に使う必要性が無いのが残念なところ。AIを使って効率的にするような仕事が無い暇人のつぶやき。

いいなと思ったら応援しよう!