Google Colab で GPT4ALL を試す
「Google Colab」で「GPT4ALL」を試したのでまとめました。
1. GPT4ALL
「GPT4ALL」は、LLaMAベースで、膨大な対話を含むクリーンなアシスタントデータで学習したチャットAIです。
2. Colabでの実行
Colabでの実行手順は、次のとおりです。
(1) 新規のColabノートブックを開く。
(2) Googleドライブのマウント。
Colabインスタンスに大きなファイルをアップロードするのは大変なのでGoogleドライブを使ってます。
# Googleドライブのマウント
from google.colab import drive
drive.mount('/content/drive')
(3) 作業フォルダへの移動。
# 作業フォルダへの移動
import os
os.makedirs("/content/drive/My Drive/work", exist_ok=True)
%cd '/content/drive/My Drive/work'
(4) GPT4ALLのクローン。
# GLT4ALLのクローン
!git clone https://github.com/nomic-ai/gpt4all.git
(5) モデルをダウンロードして、「gpt4all/chat」フォルダに配置。
公式ページで紹介されているDirectLinkから「pt4all-lora-quantized.bin」をダウンロードします。
(6) 「GPT4ALL」の実行。
# GPT4ALLの実行
%cd gpt4all/chat
!chmod u+x ./gpt4all-lora-quantized-linux-x86
!gpt4all-lora-quantized-win64
main: seed = 1680643357
llama_model_load: loading model from 'gpt4all-lora-quantized.bin' - please wait ...
llama_model_load: ggml ctx size = 6065.35 MB
llama_model_load: memory_size = 2048.00 MB, n_mem = 65536
llama_model_load: loading model part 1/1 from 'gpt4all-lora-quantized.bin'
llama_model_load: .................................... done
llama_model_load: model size = 4017.27 MB / num tensors = 291
system_info: n_threads = 2 / 2 | AVX = 1 | AVX2 = 1 | AVX512 = 0 | FMA = 1 | NEON = 0 | ARM_FMA = 0 | F16C = 1 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 0 | SSE3 = 1 | VSX = 0 |
main: interactive mode on.
sampling parameters: temp = 0.100000, top_k = 40, top_p = 0.950000, repeat_last_n = 64, repeat_penalty = 1.300000
== Running in chat mode. ==
- Press Ctrl+C to interject at any time.
- Press Return to return control to LLaMA.
- If you want to submit another line, end your input in '\'.
> What is the capital of Japan?
The capital city of Japan, Tokyo
> こんにちは
Konnichiwa (or Kon'nichi wa) means "hello" in Japanese. It can also be used as a greeting or farewell to someone you just met for the first time.
操作方法は、次のとおりです。
実行ファイルは、OSごとに異なります。
ファイルの実行権限なかったのでchmodしてます。
関連
この記事が気に入ったらサポートをしてみませんか?