GPT/LLMモデルの進化!追加の知識を組み込む最新テクニック
OpenAIの範囲外の話題でも、オープンソースコミュニティの作業を見ることができます。LLMに知識を追加するには、fine-tuningを使用することができます。OpenAIはfine-tune APIを提供していますが、LLM関連のオープンソースコミュニティの作業に少し調査レポートしました。関連情報を共有します。
fine-tuning以外のオプション
StanfordのLLaMAに基づくAlpacaや、その後に現れたLoRA版のAlpaca-LoRAなどです。
Alpacaは、わずか600ドル以下のコスト(データセットの作成を含む)で、LLaMA 7Bをtext-davinci-003に近い効果にすることができると主張しています。
そして、Alpaca-LoRAでは、消費者向けのグラフィックスカード1枚で、数時間で7Bモデルのファインチューニングができます。 共有された情報によると、7Bモデルのファインチューニングには8-10 GBのVRAMと数時間しか必要ないとされています。これは、Google Colabで完了できる可能性があることを意味します!
Stanford-AlpacaとAlpaca-LoRAのURL
知識を追加するステップ
データセットの準備
fine-tuneの目的に応じたデータセットの収集
第一の目的では、Alpacaのようなinput/outputを収集してpromptを生成し、特定のタスクを完成させるようにモデルをトレーニング
第二の目的では、テキストを収集してpromptを補完させるようにモデルをトレーニング
LoRAの訓練と適用
準備されたデータセットでfine-tuneを行う
モデルのマージ(オプション)
LoRAとbaseをマージすることで推論を加速し、後続のQuantizationモデルをサポートすることができます。
量子化(オプション)
量子化は、モデル推論を加速し、必要なメモリを減らすことができます。
最後に
fine-tuningと呼ばれる手法以外でもGPT/LLMモデルのパワーアップでき、外部情報で性能を向上させるテクニックを紹介しました。ぜひStanford-AlpacaとAlpaca-LoRAで新たな知識を注入してみてください。驚きの結果に期待できるかもしれません。
#AI
#データサイエンス
#AGI止まらない