「Llama.cpp」で「Karakuri LM」を試したので、まとめました。
1. Karakuri LM
「Karakuri LM」は、カスタマーサポートDXを推進するカラクリ株式会社が開発したLlama2ベースの70Bの日本語LLMです。「Japanese MT-Bench」の性能評価において、2024年1月26日時点で国産LLMモデルとして最高性能を達成しています。
2. Karakuri LM のモデル一覧
2-1. 公式モデル
現在提供されているモデルは、次の2つです。
2-2. 量子化モデル
量子化モデルは、mmngaさんが提供されています。推奨は、「Q4_K_M」「Q5_K_M」「Q5_K_S」です。
3. Llama.cppの実行
「Llama.cpp」の実行手順は、次のとおりです。
(1) Xcodeのインストール。
「Llama.cpp」は、インストール時に環境にあわせてソースからビルドして利用するため、MacではXcodeのビルドツールが必要になります。
(2) リポジトリのクローン。
$ git clone https:
$ cd llama.cpp
(3) ビルド。
$ make
(4) モデルをダウンロードして「llama.cpp/models」に配置。
今回は、「Q5_K_S」(karakuri-lm-70b-chat-v0.1-q5_K_S.gguf) を配置しました。
(5) 推論の実行。
プロンプトの書式は、次のとおりです。
属性に 0(最低)〜4(最高) の値を指定できます。
(6) 属性付きで推論実行。
関連