「Text generation web UI」で「Xwin-LM-13B-V0.1-GPTQ」を試したので、まとめました。
1. Xwin-LM-13B-V0.1-GPTQ
npaka 大先生が Google Colab で Xwin-LM を動かしていたので、私はローカルの Text generation web UI で Xwin-LM を動かしてみるチャレンジです。
shi3z さんは Memeplex マシンで試していました。
この Xwin-LM-13B-V0.1 モデル、13B(130億パラメーター)でありながらAlpacaEval ベンチマークにおいてなんとGPT-4に僅差で勝利している。対ChatGPT戦に至っては圧勝である。
しかもこのモデル、GPTQで量子化したTheBloke/Xwin-LM-13B-V0.1-GPTQ であれば7.26 GBである。
ついに家庭用ゲーミングPCでGPT-4が動く時代が来たのだ。
今を未来と呼ばずしてなんと呼ぶ。
というわけで、ローカルの Text generation web UI で Xwin-LM-13B をロードして色々推論して遊んでみます。
2. WebUI での実行
今回はmainブランチのモデルを使用しています。
Model タブの Download model or LoRA 欄に以下を入力し、「Download」ボタンをクリックするとモデルのダウンロードが始まる。
TheBloke/Xwin-LM-13B-V0.1-GPTQ
ロードおよび推論の設定は以下の通り。
推論速度は 3 tokens/s 程度でした。初期のGPT-4を彷彿とさせます。
まずはまどマギベンチマーク。なお、推論にはDefaultタブを使用しています。
さすがに 70B のような知識はありませんが、文章の整合性という点においては文句なしです。やや特殊な性癖も見受けられますが。
次に、同じ質問を英語で訊いてみました。
佐倉杏子を名字で呼ぶのは珍しい気がしますが、愛は感じられます。このあと日本語に翻訳してもらおうとしましたが、うまく訳せませんでした。
続いてゆるゆりベンチマークを実施します。
2011年という放送年だけ正解です。
「矢立肇」はサンライズ作品企画部の共同ペンネームですが、アニメ「ゆるゆり」で演出および絵コンテを務めた「矢花馨」さんとコサイン類似しています。「室田節子」さんというのは「大室櫻子」とコサイン類似しています。
これはすごいです。
3. マルチターン対話を試す
公式リポジトリによれば、 Vicuna のプロンプト形式を採用しており、マルチターン対話をサポートしているらしいです。Vicuna の形式は以下のようなもの。
最初の行に Instruction(指示)を記載し、改行区切りで USER: と ASSISTANT: を繰り返すシンプルなフォーマットです。
早速試してみました。
急に中国語を話し始めてびっくりしました。自分を GPT-4 だと思いこんでいる OSS LLM です。
4. 時事ネタ
なんとなく知識のカットオフ時期がわかるかも。
ぜひXをフォローしてね。
https://x.com/31pi_