Ollamaを使ってMicrosoftの軽量オープンソースLLMの「phi-3」をローカルで試してみる
ちまたでGPT3.5より優秀かも?と話題になっているMicrosoft製のオープンソースLLMの「phi-3」。これはスマートフォンのローカルでも動かせるくらいの軽さということで話題になってたのでちょっといじってみたいと思います!
ちなみにPhi-3は2024年4月リリースしたてで、Phi-3-mini(3.8GB)、Phi-3-small(70GB)、Phi-3-midium(140GB)があって、Phi-3-miniはシリーズ最小モデルでしたのでそれを試してみようと思います。
Phi-3 mini のモデルの詳細はこちら▼
さてどうやって動かそうかな、ということで今回は「Ollama」を使うことにしました!
Ollamaは、オープンに公開されているLLMのモデルを手元のPCやサーバーで動かすことの出来るツールで、かわいらしいアルパカが特徴♡
使い方は普通に上記URLの実行ファイルをインストールしたら終わり。
バージョンを確認したいときは下記コマンドを実行。
ollama --version
さて、無事インストールが終わったらここからphi3のインストールです。
Phi-3 Mini は下記のコマンドでインストールができます。
ollama run phi3
こんな感じにサクッと入れられます。
そのあとはchromeの拡張機能を入れてWEB UIにてチャットを開始!
立ち上げた画面はこれ。
日本語での会話もしっかりできました!
ちょうど肩が痛かったので雑談。
話した感じ、GPT3.5より優れているとまでは言えないけれど、なかなか良い返答です!
(わたしがGPT4に慣れすぎちゃってて比較が上手く出来きないのが本音)
なお、レスポンスはめちゃくちゃ早いです。一瞬で返答が返ってきます。
これはまさにローカルで動かす利点ですよね。
そもそもローカルのLLMを構築できれば、セキュリティ問題など諸々クリアできるのも利点ですね。
どんどん性能もよくなってきてて夢が広がります。
今日はここまで~