MLX で Command R+ を試す
「MLX」で「Command R+」を試したので、まとめました。
1. Command R+
「Command R+」は、「RAG」や「Tool」などの長いコンテキストタスク向けに最適化された104BのLLMです。CohereのEmbeddingおよびRerankと連携して動作するように設計されており、RAGアプリケーションに最高クラスの統合を提供し、エンタープライズユースケースで優れています。
特徴は、次のとおりです。
「Command R+」は、Cohere のホスト型APIでも利用できます。近い将来、主要なクラウドプロバイダーでも利用できるようになります。
2. 推論の実行
「MLX」は、Appleが開発した新しい機械学習フレームワークで、「Apple Silicon」(M1/M2/M3など) を最大限に活用するように設計されています。
推論の実行手順は、次のとおりです。
(1) Pythonの仮想環境の準備。
今回は、「Python 3.10」の仮想環境を準備しました。
(2) パッケージのインストールと実行。
今回は「mlx-community/c4ai-command-r-plus-4bit」のモデルを利用します。
pip install mlx-lm
python -m mlx_lm.generate --model mlx-community/c4ai-command-r-plus-4bit --prompt "まどか☆マギカでは誰が一番かわいい?" --temp 0.0 --max-tokens 256 --use-default-chat-template