ローカルLLMの活用【画像生成編】
はじめに普及帯ゲーミングPC(VRAM 8〜16GB)を利用してローカルLLM(大規模言語モデル)を実行する場合、利用できるLLMの規模は〜12B、処理できるコンテキストサイズは8K〜32Kトークン(8Kトークンなら日本文8,000強文字)程度です。
汎用的な性能においては、数百billion以上の規模を持つオンラインサービスChatGPTやGeminiに大きく劣りますが、ローカルLLMの特有の利点もあります。
この記事では、筆者が利用している活用術やモデルを紹介したい