シェア
npaka
2024年7月20日 06:18
以下の記事が面白かったので、簡単にまとめました。1. Gemini のロングコンテキスト「Gemini 1.5 Flash」には100 万トークン、「Gemini 1.5 Pro」には200万トークンのコンテキストウィンドウが付属します。歴史的にLLMは、一度にモデルに渡すことができるテキスト (またはトークン) の量によって大幅に制限されていました。ほぼ完璧な検索 (>99%) を備えた「G
ぬこぬこ
2024年4月21日 01:12
概要ローカル LLM 初めましての方でも動かせるチュートリアル最近の公開されている大規模言語モデルの性能向上がすごいOllama を使えば簡単に LLM をローカル環境で動かせるEnchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができるquantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに
2023年9月20日 20:49
主な「ローカルLLM」のリリース年表をまとめました。2022年2023年2月24日 LLaMA7B、13B、33B、65B を研究者向けの限定リリース。3月13日 AlpacaInstructionデータセットによる学習効果が注目される。3月19日 Llama.cppLlamaの高速推論が注目される。3月20日 Alpaca-LoRALoRAでのInstructio