GPT4 Allとは
と言うわけで、今回のローカルLLMを試します。そして使うアプリはGPT4 Allです。GPT4 Allの最大の利点はhuggingfaceなどにアップロードされている.ggufのLLMモデルを自分のメモリ容量が許す限り好きに使えるということです。そしてUIはChatGPTとそっくりです。もちろん無料です。
また、UIがそっくりなだけでなく、本家OpneAIのAPIキーを入力すれば簡単にAPI経由のGPT4を使うこともできます。その場合は都度API料金がかかりますが、月額の20ドル分も使ってない人にはいい選択肢かもしれません。
おすすめのローカルLLMモデル
私が今回試したLLMモデルはopenchat-3.5-1210-GGUFです。本家ChatGPT3.5並の精度を誇っています。
.ggufモデルは名前が~Qxという表示になっています。Qの後ろの数字が大きいほど高精度ですが、メモリの使用は多くなりマシンの処理能力が必要になります。自身のマシンに合わせて最良のモデルを使うといいでしょう。今回は推奨されているQ4_K_Mをダウンロードしました。
使ってみた感想
激おそ!! 今回は試しに下記のコラムページの要約を依頼。入力トークン数は約1400トークン。入力してから出力開始まで約10分ほど時間がかかりました。入力トークンが短ければ返信開始は数秒ですので、キャラクターシミュレーション会話とかならアリか?
出力速度はCPUをフル稼働させて2トークン/1秒でした。1トークンはおおよそ、日本語ならば1文字、英語ならば1単語です。ただし動画編集のようにグルグル虹カーソルが出て作業を受け付けないということはありませんでした。
軽いモデルバージョンならばもっと軽やかに動くでしょうが、それは精度を犠牲にするという事です。いやはや。
出力結果
良さそうな要約に思われますが、数字が指し示す対象が違っています。"米国市場シェアは86.75%から88.1%にわずかに増加しましたが、"の主語はGoogleでなければなりませんが、この文脈ではマイクロソフトになっています。GPT4でこのミスは落第ですが、GPT3.5同等と考えれば誤差の範囲内でしょう。
同様のプロンプトで要約させたChatGPT 3.5の結果が下記です。
実用性は?
というわけで、あまりに遅いので実用性は皆無です。超ハイスペックなマシンを持っている人はいいかもしれませんが、無料で本家ChatGPT3.5が利用できるのでわざわざ使う意味は薄いです。
ただし、ChatGPTなどの企業提供のWebサービスでは安全フィルターが強く、キワドイ内容には答えないのでその点はローカルLLMに優位性があります。
GPT4が誰でも使えるようになって1年も経たずにローカルLLMがCPUのみでGPT3.5並の精度が出るようになったので、そのうちGPT4並の精度が出るようになると思います。今後の発展を楽しみに待ちましょう。