マガジンのカバー画像

見返す

8
何度も読みたい記事を追加
運営しているクリエイター

#人工知能

Gemini のロングコンテキストの使い方

Gemini のロングコンテキストの使い方

以下の記事が面白かったので、簡単にまとめました。

1. Gemini のロングコンテキスト「Gemini 1.5 Flash」には100 万トークン、「Gemini 1.5 Pro」には200万トークンのコンテキストウィンドウが付属します。歴史的にLLMは、一度にモデルに渡すことができるテキスト (またはトークン) の量によって大幅に制限されていました。ほぼ完璧な検索 (>99%) を備えた「G

もっとみる
いちばんやさしいローカル LLM

いちばんやさしいローカル LLM

概要ローカル LLM 初めましての方でも動かせるチュートリアル

最近の公開されている大規模言語モデルの性能向上がすごい

Ollama を使えば簡単に LLM をローカル環境で動かせる

Enchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができる

quantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに

もっとみる
ローカルLLM のリリース年表

ローカルLLM のリリース年表

主な「ローカルLLM」のリリース年表をまとめました。

2022年2023年2月24日 LLaMA

7B、13B、33B、65B を研究者向けの限定リリース。

3月13日 Alpaca

Instructionデータセットによる学習効果が注目される。

3月19日 Llama.cpp

Llamaの高速推論が注目される。

3月20日 Alpaca-LoRA

LoRAでのInstructio

もっとみる