マガジンのカバー画像

LLM

336
運営しているクリエイター

2024年6月の記事一覧

【論文瞬読】視覚と言語の架け橋:Whiteboard-of-Thoughtが拓く、AIの新しい思考法

【論文瞬読】視覚と言語の架け橋:Whiteboard-of-Thoughtが拓く、AIの新しい思考法

こんにちは!株式会社AI Nestです。今日は、人工知能の分野で話題になっている興味深い研究について紹介したいと思います。

大規模言語モデルと視覚的思考タイトルは「Whiteboard-of-Thought: Thinking Step-by-Step Across Modalities 」。難しそうに聞こえるかもしれませんが、要するに、AIに人間のように言葉と画像を使って考えさせる方法の提案な

もっとみる

transformersでGGUFを読み込んでみよう!

こんにちは!クロガネです。
transformersでGGUFが読み込めるようになったのでメモがてらに読み込んでみます。

基本的には公式ドキュメントの通りです。
GGUF and interaction with Transformers (huggingface.co)

ちなみに、書いてある通り、ロード時にfp32にde-quantizeされるので特に軽くなりません。ただし、通常通り、tor

もっとみる

大規模言語モデル(LLM)やそのツールの情報整理2024.06版

今月に入って気が付いたのはPhindの無料版に利用回数制限があること。自身に聞かせると1日最大10回らしいが、ログインなしでは実際もっと少なかった。会員登録したり有料プランにすれば使えるだろう想像はつくけど、登録・有料は数を絞りたいし、何より会社のセキュリティールール的に面倒。Microsoft CopilotもEdgeのサイドバーにあるので便利でつい使っていたが、やはり回答精度が良いのは、、、と

もっとみる
Llama 3をReFTでファインチューニング

Llama 3をReFTでファインチューニング


Pythonライブラリpyreftより少ないパラメータ数で、より優れた性能を達成する可能性のあるファインチューニング方式「ReFT」(Representation Fine-Tuning)。
少ないファインチューニングパラメータで、より強力なパフォーマンスを発揮し、ファインチューニングの効率を向上させ、コスト削減を実現します。
そのPythonのライブラリが「pyreft」です。

上記リポジト

もっとみる
WSL2でLlama-3-ELYZA-JPを試してみる

WSL2でLlama-3-ELYZA-JPを試してみる

「『GPT-4』を上回る日本語性能のLLM」はLlama-3-ELYZA-JP-70Bらしいですが、そのファミリーである8Bモデルを試してみます。

8Bのモデルを今回使用します。

elyza/Llama-3-ELYZA-JP-8B

elyza/Llama-3-ELYZA-JP-8B-AWQ

elyza/Llama-3-ELYZA-JP-8B-GGUF

使用するPCはドスパラさんの「GAL

もっとみる
BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?

BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?

今年の3月ごろに話題になって、それから僕も実験してみたけどさっぱり学習できないBitTransformerに変わり、新たにMutmulFreeTransformerというものが出てきたようだと、NOGUCHI, Shojiさんが教えてくれたので試してみた

ただ、2.7Bモデルが量子化なしで4090で推論できてるとしたらそれだけですごい(というかMutMulFree自体が一種の量子化なのだが)。

もっとみる
「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました

「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました


本記事のサマリーELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行なったものです。

もっとみる
Ragas で LangChainのRAG評価 を試す

Ragas で LangChainのRAG評価 を試す

「Ragas」でLangChainのRAG評価を試したので、まとめました。

1. Ragas「Ragas」は、「RAG」を評価するためのフレームワークです。

2. LangChainの準備LangChainの準備手順は、次のとおりです。

(1) パッケージのインストール。

# パッケージのインストール!pip install langchain==0.2.0!pip install lan

もっとみる
LangChain で RAGのハイブリッド検索 を試す

LangChain で RAGのハイブリッド検索 を試す

「LangChain」でRAGのハイブリッド検索を試したので、まとめました。

1. RAGのハイブリッド検索「RAG」のハイブリッド検索は、複数の検索方法を組み合わせる手法で、主に「ベクトル検索」と「キーワード検索」を組み合わせて使います。

2. LangChainの準備LangChainの準備の手順は、次のとおりです。

(1) LangChainのパッケージのインストール。

# Lang

もっとみる
Self-RAGについて

Self-RAGについて

Self-RAG: 自己反省による検索強化生成Self-RAGは、検索強化生成(RAG)モデルのパフォーマンスを向上させるための新しいアプローチであり、大規模言語モデル(LLM)が情報の検索時期と取得情報の関連性および品質を評価する能力を持つことを可能にします。この記事では、従来のRAGの限界、Self-RAGの内部動作、そのトレーニングプロセス、実用的な応用、および産業用LLMに革命をもたらす可

もっとみる
WSL2でRWKV-infctx-trainer-LoRAを試してみる...

WSL2でRWKV-infctx-trainer-LoRAを試してみる...

「Infctx-LoRAに4ビット量子化モードを追加し、単一 24GB GPUで14Bモデルのトレーニングを可能にした」らしいRWKV-infctx-trainer-LoRAを試してみます。

24GBという文字列を見ると反応していますね。はい。

使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは
・CPU: Intel® Core™ i9-13900HX Proce

もっとみる