bartowskiさんの Mistral Large Instruct 2407(123B)が M1 macで動くのだ

 Mistral Large Instruct 2407 がすげぇ
 LM Studio をダウンロードして、bartowski/Mistral-Large-Instruct-2407-GGUF を検索、自分のmacのメモリーに合わせたのをダウンロードしてください。私のmacはM1 max 64GByteなので、Q2_K_L.gguf が動作しました

 直接ダウンロードする人ここ。まぁLM Studio使いましょう

プログラムの性能がすごい

 この間 Meta社がLLama3.1が脅威の405B(4050億パラメーター)をフリーで出してくれたんだけど、これがローカルで動かないのは仕方ないとして、日本語がね、全然ダメなのよ
 ここまで日本語がダメなのも珍しい
 LLama2の時はそこそこ上手だったのに、なんで?
 サイバーエージェント社が日本語追加学習してくれたそうだけど、そっちは小型版なんだよね

 で、件のMistralなんだけどbartowski氏の量子化の凄さもあってなんとmy macでも動作しました
 しかもわざわざ LM Studio 対応とか書いてある
 bartowski版はQ2_K_Lで46GByteすよ!
 他の人の変換は同じくらいのサイズだとQ2_K_XS とかなのに、なんでこんなにちっちゃいんですかね??

 これなら我がM1 max(64GB)でも動作する!
 2文字秒くらいと、すんげー鈍いけど!
 質問してアニメ前半みたら答えが揃ってる感じ(12分くらい)

 ただ性能はすごかった。確かにプログラム面ではChat-GPT4oに匹敵するかも。Q2でわずか(?)123Bなのに (Chat-GPT4oの1/10とも!?)

 ただしおフランスの会社なので日本語のトーカナイザー使ってないで学習しているのが残念すぎる…
 日本語の部分が一文字ずつ、ポツポツと出るんだよね
 英語の部分はワード単位ででるから、まぁプログラム部分はそこそこ早いんだけど、その説明をさせるとつらい
いやいやいや、瑣末ですよ、そんなこと。ありがとう Mistral様

 早くスーパー円高、M5 Exterm出てくれぇ

なんかM4はiPad用みたいっすよ?

いいなと思ったら応援しよう!