前日の記事の続きです。
今度は、examplesにあるMistralを試してみます。
conda activate mlxでconda環境を立ち上げて、私の設定した場所に従って、
cd ai/mlx/mlx-examples/mistral でdirectoryに移動。
pip install -r requirements.txt
上で、必要なパッケージをインストール。
model と tokenize を以下でダウンロード。
1行ずつ実行してみます。
curl -O https:
tar -xf mistral-7B-v0.1.tar
ダウンロードにそこそこ時間がかかります。
解凍後のファイル構成みてみると、以下の通りでした。
documentに従って、下記を実行。
python convert.py
何の変化があったのかわかりません…
documentをGPT-4に説明してもらいました。
とりあえず、documentどおりに、下記を実行。
python mistral.py --prompt "It is a truth universally acknowledged," --temp 0
こんな出力でした。
ちょっと、日本語をいれてみます。
う〜ん という感じですね。ヘルプを見てます。
python mistral.py --help
あと、試してみたのは、こんな感じ
私ができたのは、ここまでです。
chat形式でするには、きっと mistral.pyの内容を理解して手を加えないといけないのでしょうか?
#AI #AIとやってみた #やってみた #Mistral #ローカルLLM #大規模自然言語モデル