マガジンのカバー画像

見返す

8
何度も読みたい記事を追加
運営しているクリエイター

#AI

Gemini のロングコンテキストの使い方

Gemini のロングコンテキストの使い方

以下の記事が面白かったので、簡単にまとめました。

1. Gemini のロングコンテキスト「Gemini 1.5 Flash」には100 万トークン、「Gemini 1.5 Pro」には200万トークンのコンテキストウィンドウが付属します。歴史的にLLMは、一度にモデルに渡すことができるテキスト (またはトークン) の量によって大幅に制限されていました。ほぼ完璧な検索 (>99%) を備えた「G

もっとみる
学生起業で絶対に失敗しない方法(増補版)

学生起業で絶対に失敗しない方法(増補版)

増補版前書き

一年も前に書いたエントリが、昨日になって急に100部以上売れた。
東京藝大の八谷和彦先生がXで紹介してくれたおかげだろう。

一年前の内容であることと、僕自身もあの後会社を数社作り、最近はAIを社長にした会社(https://free-ai.ltd)を作ったりしていて、個人的にもアップデートがあるので今売れてることだし増補版を書くこととする。また、僕のnoteの特徴でもあるが、売れ

もっとみる
AI時代に起業するということ

AI時代に起業するということ

生成AI以前と以後で、会社のあり方は決定的に変化していくのだと思う。
たとえば、昨日はとある会議で、「この(AI)サービスの原価はいくらか」という議論が沸き起こった。

AIサービスなのだから、AIの利用料くらいしかかからないかというとそうでもない。実際、AIを動かすためにはAIそのものにかかるお金以外の人件費がかかる。誰かに売る人の人件費や、システム開発のための人件費や、サポートのための人件費だ

もっとみる
いちばんやさしいローカル LLM

いちばんやさしいローカル LLM

概要ローカル LLM 初めましての方でも動かせるチュートリアル

最近の公開されている大規模言語モデルの性能向上がすごい

Ollama を使えば簡単に LLM をローカル環境で動かせる

Enchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができる

quantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに

もっとみる
AIのせいで「アイデアが出ない」という状態について

AIのせいで「アイデアが出ない」という状態について

ある日、とぼとぼと秋葉原を歩いていた。
本当は小川町のつじ田でひさびさに辛味噌ラーメンでもキメようかと思ったのだがすでに大行列。そうか。日常が戻るとはこういうことか。

秋葉原の麺屋武蔵も満杯だったし、丸五も行列が戻った。これが日常というやつか。頭の片隅に青島食堂がよぎったが、我が北越の同朋もバッチリ大行列ができているはずであり、選択肢には入らない。

ガードを抜けて日高屋を左に。CoCo壱をやぶ

もっとみる
ローカルLLM のリリース年表

ローカルLLM のリリース年表

主な「ローカルLLM」のリリース年表をまとめました。

2022年2023年2月24日 LLaMA

7B、13B、33B、65B を研究者向けの限定リリース。

3月13日 Alpaca

Instructionデータセットによる学習効果が注目される。

3月19日 Llama.cpp

Llamaの高速推論が注目される。

3月20日 Alpaca-LoRA

LoRAでのInstructio

もっとみる