mlx-examplesがアップデートされているとのことで、ローカルファイルをアップデートする方法をGPT-4に教えてもらいました。
また、mlxアーキテクチャで、Qwenを実行してみました。
ローカルファイルのアップデート方法
もちろんです!ローカルのファイルに変更をコミットする必要がなく、単にローカルリポジトリをリモートのGitHubリポジトリの最新の変更で更新したい場合、そのプロセスは簡単です。以下、簡略化した手順です:
ターミナルまたはコマンドプロンプトを開きます。
ローカルプロジェクトディレクトリに移動します。
cd path/to/your/project
3. リモートリポジトリからの更新をローカルブランチにプルします。
git pull
以上です!`git pull` コマンドは実際には `git fetch` に続いて `git merge` を実行するもので、リモートリポジトリの現在のブランチから最新の変更を取得して、ローカルブランチにマージします。
ローカルで変更を加えていない場合や、ローカルの未コミットの変更が破棄されても構わない場合、プル操作はマージコンフリクトなしで進むはずです。
ローカルの変更が影響を受けないようにしたい場合は、プルする前にそれらをスタッシュできます:
git stash
git pull
git stash pop
これにより、一時的に変更を保存し、リモートから最新の更新でブランチを更新した後、更新されたブランチの上に変更を再適用します。`git stash pop` した後にコンフリクトが発生した場合は、手動で解決する必要があります。
Qwenの実行
以下でエラーが出てる理由は先に下記のコマンドを実行してなかったからです。忘れずに、先に実行してください。
pip install -r requirements.txt
さて、qwenのllmを動かしてみようと思います。
手順書通り以下を実行したら、エラーがでました。
python convert.py
書かれている通り、`pip install transformers_stream_generator`を実行してから、再度、convert.pyを動かしました。 Qwen/Qwen-1_8B. のダウンロードが終わって、コンバートできたようです。
まずはヘルプをみてみます。
python qwen.py --help
defaultのプロンプトは何も引数つけずでいいとかいてあったので、試します。
python qwen.py
今度は下記のエラー。
pipして、再度実行。
readmeに模範応答が書かれてませんでしたが、多分いいのかな?
qwen.pyのスクリプトをみたら、 default="蒙古国的首都是乌兰巴托(Ulaanbaatar)\n冰岛的首都是雷克雅未克(Reykjavik)\n埃塞俄比亚的首都是",があったので、これへの応答だと思います。
という段階で、requirements をつかってなかったことに気づきました。
あらためて、
pip install -r requirements.txt
一応すべてはいっていたようです。
さて、プロンプトを追加して文章生成を実行。
微妙?
1.8Bのモデルですから、こんなものでしょうか。
PoeにあるQwen-72B-chatは、かなり日本語ができますので、近いうちに量子化して試してみたいです。
ダウンロードと変換のスクリプトをGPT-4に解説してもらったのが以下です。
単純に -h をつけるだけでもヘルプが出ますね。
グループサイズについてもGPT-4に教えてもらいました。
どこかに、このパラメーター数の時に、この量子化にするには、このグループサイズがいいよという表があると嬉しいですね。
#AI #AIとやってみた #やってみた #mlx #LLM #MacbookPro #Qwen