tl;dr
ささっと行きます、記事のうち重要だと思うところだけピックすると
Mistral Small 3 のパラメータ数は 24B
Base モデルと Instruct モデルが公開
モデルは Apache 2.0 ライセンスで公開
Llama 3.3 70B や Qwen 32B、GPT-4o mini と同程度の性能
人手評価や多言語 MMLU など網羅的に評価
同じ GPU で Llama 3.3 70B の三倍の速度(150 tps とあるが最大?)
Hugging Face、Ollama、Kaggle、Together AI、Fireworks AI で使える
今後 NVIDIA NIM、Amazon SageMaker、Groq、Databricks、Snowflake で使えるようになる
追記
NVIDIA NIM や Amazon SageMaker にも来ていました!
Ollama で試す
対応がはやいですね。とりあえず動かしてみましょう。まずはモデルをダウンロードします。
ollama pull mistral-small:24b
私の環境(Mac Studio)ではおおよそ 10 分程度でダウンロードが完了しました。
ollama run mistral-small:24b --verbose "OpenAI と Anthropic の違いについて教えてください。"
なぜかトム・ブラウンがトム・ブラウンズンになっていますが、他に不自然な間違いはなさそうです。24B にしてはかなり日本語の流暢さがあがっているように感じます。
もうひとつ聞いてみます。
ollama run mistral-small:24b --verbose "核融合発電について教えてください。"
ドイトリウムやスタレラーター他、想像以上に間違えました。ただ、間違え方をよく見るとすべてカタカナの間違いで、これは非漢字圏のモデルであればどれも難しいものかなとは思います。
以上です。
自著