![見出し画像](https://assets.st-note.com/production/uploads/images/160438108/rectangle_large_type_2_de51e73e6a34247d4f9cbcbc9a150a70.png?width=1200)
【超入門】Hugging Faceの長いモデル名のggufモデルをPage AssistでOllama用にダウンロードする方法
先にこちらの記事を書きました。
上記記事の最後に、本タイトルの内容を書いておきましたが、モデル名が長い時には別方法があるので、こちらの紹介です。
追記:2024.11.6
Page Assistのバージョン 1.3.3 で直下のパネル表示が修正されて、ちゃんと見えるようになりました。
![](https://assets.st-note.com/img/1730900269-LixFIXJstGqkV6AOe1Twc9yR.png?width=1200)
まず、モデル名が長い場合どうなるかをお見せします。
こちらのモデルのページで、以下のように【Use this model】を選んでみましょう。
![](https://assets.st-note.com/img/1730624705-6sE1uCe0hRSoIj5tXZncviAf.png?width=1200)
こうなって、量子化を選ぶ部分が隠れてしまいます。
![](https://assets.st-note.com/img/1730624791-IYzKHFU1q7uQckEyhrDtL8Bl.png?width=1200)
ということで、まずは先にどの量子化モデルをダウンロードするかを選んでください。この場合、以下の画像の IQ4_XS, Q4_K_M, Q5_K_M. Q8_0 が選択できます。
![](https://assets.st-note.com/img/1730624849-t0IHkZ32fu1nO8Vva4XKCdcF.png?width=1200)
たとえばQ8_0をクリックしましょう。そうすると、画面右側に、以下のパネルが出てきます。パネル上に 【Use this model】が右上に見えます。
![](https://assets.st-note.com/img/1730624976-lfaMxJ6bCw4QUHIYOKeWXojv.png?width=1200)
ここからは今までと同じです、このパネル上で同様の手順をとってください。
![](https://assets.st-note.com/img/1730625062-r7RpdWzsKL1j0uwVnZfEGcmY.png?width=1200)
Ollamaを選択することで、以下のように量子化がどれかは画面上ではみれませんが、【Pull from Page Assist 】で選んだQ8_0がダウンロードできます。
![](https://assets.st-note.com/img/1730625124-raALje1ufv4QYXEnTGpNzRZ6.png?width=1200)
(不安でしたら、Copyでどこかで確認してみてください。この場合は下記となり、たしかにQ8_0の量子化モデルが指定されていることがわかります。)
ollama run hf.co/grapevine-AI/Qwen2.5-32B-Instruct-GGUF-Japanese-imatrix:Q8_0
それでは、Page AssistとOllamaでローカルLLMの世界をエンジョイしてみてください。
#AI #AIとやってみた #やってみた #ローカルLLM #LLM #大規模言語モデル #HuggingFace #Ollama
いいなと思ったら応援しよう!
![Lucas](https://assets.st-note.com/production/uploads/images/107879020/profile_1a18442658444d51682a0e9f99ec2cbd.jpeg?width=600&crop=1:1,smart)