マガジンのカバー画像

LLM

336
運営しているクリエイター

#ELYZA

【初心者向け】最近のローカル日本語LLM【ローカル万歳】

【初心者向け】最近のローカル日本語LLM【ローカル万歳】


はじめにOllama Open WebUIやLM Studioのローカルで簡単に利用できる最近の実用的な日本語対応のLLMを紹介しようと思います。※ Python言語を利用してアクセスするのではなく、「モデルのダウンロードとGUIソフトウェアの設定」で実行できるものです

Open WebUIの詳しい導入方法は下記事で紹介しています。

公式レポジトリはこちら

Qwen 2.5中国アリババ社の

もっとみる
Llama.cpp + WandBで始める日本語AI評価:Gemmaモデル(gemma-2-9b-it-Q4_K_M.gguf)のELYZA-tasks-100パフォーマンス分析

Llama.cpp + WandBで始める日本語AI評価:Gemmaモデル(gemma-2-9b-it-Q4_K_M.gguf)のELYZA-tasks-100パフォーマンス分析

はじめにこんにちは!この記事では、Google Colab上でGemmaモデル(gemma-2-9b-it-Q4_K_M.gguf)を使用して、ELYZA-tasks-100データセットの評価を行う方法をご紹介します。この記事は、大規模言語モデルの評価に興味がある初心者の方々向けに書かれています。
この記事を読むことで、以下のことが学べます:

llama.cppの環境構築方法

Gemmaモデル

もっとみる
ローカルLLM(Llama-3,gemma-2)でAIアバター「えーあいそーだんいん」の観光案内セリフを作ってみた!

ローカルLLM(Llama-3,gemma-2)でAIアバター「えーあいそーだんいん」の観光案内セリフを作ってみた!

少しご無沙汰しております!横須賀市生成AI推進チームのM田です!

2024年4月27日から5月31日にかけて、メタバースプラットフォームVRChat上で、AIアバター「えーあいそーだんいん」の試験運用を行いました!

これは、もち山金魚さんのかわいい3Dアバター「まめひなた」に、スカジャンを着てもらって、GPT-4と魂のプロンプトを吹き込んだ、音声で会話を楽しんだり観光案内をしたりしてくれるAI

もっとみる
WSL2でLlama-3-ELYZA-JPを試してみる

WSL2でLlama-3-ELYZA-JPを試してみる

「『GPT-4』を上回る日本語性能のLLM」はLlama-3-ELYZA-JP-70Bらしいですが、そのファミリーである8Bモデルを試してみます。

8Bのモデルを今回使用します。

elyza/Llama-3-ELYZA-JP-8B

elyza/Llama-3-ELYZA-JP-8B-AWQ

elyza/Llama-3-ELYZA-JP-8B-GGUF

使用するPCはドスパラさんの「GAL

もっとみる
「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました

「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました


本記事のサマリーELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行なったものです。

もっとみる
700億パラメータの日本語LLM「ELYZA-japanese-Llama-2-70b」を開発し、デモを公開しました

700億パラメータの日本語LLM「ELYZA-japanese-Llama-2-70b」を開発し、デモを公開しました


はじめにこの度 ELYZA は、新たに開発した700億パラメータの大規模言語モデル (LLM) である「ELYZA-japanese-Llama-2-70b」のデモを公開しました。「ELYZA-japanese-Llama-2-70b」は、前回までに引き続き、英語の言語能力に優れた Meta 社の「Llama 2」シリーズに日本語能力を拡張するプロジェクトの一環で得られた成果物です。

ELYZ

もっとみる
LM Studioを使ってELYZA Japaneseをインストールしてみた

LM Studioを使ってELYZA Japaneseをインストールしてみた

とある諸事情から、LLMをインストールしてローカルで使えるようにってことをやっている。

最初はGPT4ALL元々はGPT4ALLを触ってた。GPT4ALLも良かったんだが、日本語環境が欲しいな、と思ったので、別の環境を探してた。ちなみに、GPT4ALLを触るならこのページを参考にするのが一番いいんじゃないかと。

で、日本語LLMを探してたんだが、そんなにハイスペックなPCを持ってるわけでもない

もっとみる
130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)

130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)

本記事のサマリーELYZA は「Llama 2 13B」をベースとした商用利用可能な日本語LLMである「ELYZA-japanese-Llama-2-13b」シリーズを一般公開しました。前回公開の 7B シリーズからベースモデルおよび学習データの大規模化を図ることで、既存のオープンな日本語LLMの中で最高性能、GPT-3.5 (text-davinci-003) も上回る性能となりました。また、推

もっとみる
最近の日本語特化オープンLLMをつまみ食いする

最近の日本語特化オープンLLMをつまみ食いする

正月もいよいよ大詰め。
とはいえ、AIは待ってはくれない、ということで昨日から「デイリーAIニュース」を再開しています。今週だけ過去の特番を全て見れるスペシャル仕様になっているのでこの機会にぜひ去年のAIの流れと基礎知識を振り返ってみてください。

さて、昨年末は怒涛のようにいろんな日本語対応のオープンLLMが公開されました。

東工大のSwallow-70Bや、Elyza13B、Lightblu

もっとみる
驚愕の2ビット量子化LLM/GGUF

驚愕の2ビット量子化LLM/GGUF

普段VRAMリッチな人生だったのでよくわかってなかったのだが、俺が機内で会話していたLLMは2ビット量子化されたやつだったらしい。マジかよ。2bitって。

llama.cppで2ビット量子化されたELYZA-7Bと会話したのはこんな感じ

{"prompt": "User:宮崎駿とは? Assistant: ","n_predict": 256}' {"content":"宮崎駿は日本のアニメ

もっとみる
text-generation-webuiでELYZA-japanese-Llama-2-7b-fast-instructとのチャットを考える

text-generation-webuiでELYZA-japanese-Llama-2-7b-fast-instructとのチャットを考える

text-generation-webuiにはデフォルトでChiharu Yamadaという謎の美少女とチャットできるプリセットが搭載されています

ModeをChatにすると、LLMにはどのようなプロンプトが渡っているのでしょうか。

左下のハンバーガーメニューから「send to default」または「send to notebook」を選ぶと、実際にLLMに渡っているプロンプトを確認するこ

もっとみる
text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructをExLlamaでロードし、LoRA適用してみる

text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructをExLlamaでロードし、LoRA適用してみる

text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructをExLlamaでロードし、LoRA適用してみます。

Exllamaでモデルをロードするために、以下のGPTQモデルをお借りします。

Download model or LoRA画面にdahara1/ELYZA-japanese-Llama-2-7b-fast-instr

もっとみる
text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試す。

text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試す。

text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructのLoRAトレーニングを試してみたので、その備忘録を記します。

Google Colabでtext-generation-webuiを起動ローカルマシンではVRAMが足りなかったので、Google ColabでA100を利用します。

以下のコードを実行すると、Google

もっとみる
Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました

Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました

本記事のサマリーELYZAが「Llama 2」ベースの商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を一般公開

性能は「GPT-3.5 (text-davinci-003)」に匹敵、日本語の公開モデルのなかでは最高水準

Chat形式のデモや評価用データセットも合わせて公開

既に社内では、130億、700億パラメータのモデルの開発も進行中

はじめにこんにちは

もっとみる