上の記事で紹介されているMLXを試してます。
昨日の記事で、conda環境 mlx をつくって、examplesまでmacbookのなかにとりこみました。
その続きとなります。
こちらですね。
ドキュメントは以下ですが、すっとばします。
例にあるLLamaのページがこちら。
conda activate mlx でconda環境を立ち上げて、LLamaのdirectoryまで移動します。
ここで、下記のコードを実行
pip install -r requirements.txt
conversionするステップは飛ばして、できてるモデルをダウンロードすることにします。
上から以下のモデルを選択すると、実行コードも書かれていました。
最初に関係ありそうな以下のコードのみをまず実行。
次にモデルをダウンロード
export HF_HUB_ENABLE_HF_TRANSFER=1
huggingface-cli download --local-dir Llama-2-7b-chat-mlx mlx-llama/Llama-2-7b-chat-mlx
環境設定の中身はわからなかったですが、このまま実行しました。
環境設定は通ったみたいです。
ダウンロードはエラーがでました。
エラーをコピペしてChatGPTに尋ねたところ、.cache/huggingface/hub に書き込み権限がないということでした。それで、以下のように書き込み権限をsudoで与えて、再度実行したら、ダウンロードが開始されました。
下記を。llamaのdirectoryで実行したら、走りました。
python llama.py Llama-2-7b-chat-mlx/ Llama-2-7b-chat-mlx/tokenizer.model "My name is "
とか
とか
こんな感じでした。
ヘルプ画面は以下のようでした。
few shotの例があったので、下記を実行すると、Q & A形式でした。
python llama.py --few-shot Llama-2-7b-chat-mlx/ Llama-2-7b-chat-mlx/tokenizer.model sample_prompt.txt
ctrl + C で終了しました。
とりあえず、こんな感じでどうにか実行できました。
残念ながら、chat形式でやり取りする方法を私は見つけられませんでした。
#AI #AIとやってみた #やってみた #ローカルLLM #大規模自然言語モデル #Llama