見出し画像

GPT/LLMモデルの進化!追加の知識を組み込む最新テクニック

OpenAIの範囲外の話題でも、オープンソースコミュニティの作業を見ることができます。LLMに知識を追加するには、fine-tuningを使用することができます。OpenAIはfine-tune APIを提供していますが、LLM関連のオープンソースコミュニティの作業に少し調査レポートしました。関連情報を共有します。

fine-tuning以外のオプション

StanfordのLLaMAに基づくAlpacaや、その後に現れたLoRA版のAlpaca-LoRAなどです。

Alpacaは、わずか600ドル以下のコスト(データセットの作成を含む)で、LLaMA 7Bをtext-davinci-003に近い効果にすることができると主張しています。

そして、Alpaca-LoRAでは、消費者向けのグラフィックスカード1枚で、数時間で7Bモデルのファインチューニングができます。 共有された情報によると、7Bモデルのファインチューニングには8-10 GBのVRAMと数時間しか必要ないとされています。これは、Google Colabで完了できる可能性があることを意味します!

Stanford-AlpacaとAlpaca-LoRAのURL

知識を追加するステップ

  1. データセットの準備

    • fine-tuneの目的に応じたデータセットの収集

    • 第一の目的では、Alpacaのようなinput/outputを収集してpromptを生成し、特定のタスクを完成させるようにモデルをトレーニング

    • 第二の目的では、テキストを収集してpromptを補完させるようにモデルをトレーニング

  2. LoRAの訓練と適用

    • 準備されたデータセットでfine-tuneを行う

  3. モデルのマージ(オプション)

    • LoRAとbaseをマージすることで推論を加速し、後続のQuantizationモデルをサポートすることができます。

  4. 量子化(オプション)

    • 量子化は、モデル推論を加速し、必要なメモリを減らすことができます。

最後に

fine-tuningと呼ばれる手法以外でもGPT/LLMモデルのパワーアップでき、外部情報で性能を向上させるテクニックを紹介しました。ぜひStanford-AlpacaとAlpaca-LoRAで新たな知識を注入してみてください。驚きの結果に期待できるかもしれません。
#AI
#データサイエンス
#AGI止まらない


いいなと思ったら応援しよう!