- 運営しているクリエイター
2024年5月の記事一覧
【論文瞬読】アニメキャラクターとの会話を実現!ChatHaruhi: 大規模言語モデルによるキャラクターロールプレイ技術
こんにちは!株式会社AI Nestです。今日は、私がとても興味深いと感じた論文をご紹介したいと思います。タイトルは「ChatHaruhi: 大規模言語モデルを用いたアニメキャラクターの現実での再現」。アニメやマンガのキャラクターと会話ができたら楽しいと思ったことはありませんか?この論文は、その夢に一歩近づくための技術的なアプローチを提案しているのです。
チャットボットがキャラクターになりきる!?
パラメータ効率が圧倒的に高いLLM学習手法ReFT(Representation Finetuning)を試してみた。
こんにちは!株式会社IZAI、エンジニアチームです。
今回は従来のLLMファインチューニング手法よりも10~50倍効率的とされているReFT(Representation Finetuning)を試してみます。
現論文はこちら
1. ReFTとはファインチューニング
ReFTとはRepresentation Finetuningの名前の通りファインチューニングにおける学習法です。今回紹介する手
【論文紹介】複数トークン予測によるLLMの精度向上と高速化
Meta社の研究チーム(Fabian Gloeckle, Badr Youbi Idrissi, Baptiste Rozière, David Lopez-Paz, Gabriel Synnaeve)が発表した論文がXで話題になっていたので、ざっと眺めてみました。理解不足も多々あると思いますので、詳細は原文を参照願います。
複数トークン予測モデルの概要トレーニング:従来のTransformer
Fugaku-llm-13BをMacで動かしてみる
昨日プレスリリースが発表された富岳を使った日本製LLMをMacで動かしてみました。
さて、以下からお試しができるようなのですが、登録が単に面倒なため、ローカルで動かしてみました。
まずは、mlx環境で、mlx-lmを使って動かないかを試しました。
mlx_lm.generate --model Fugaku-LLM/Fugaku-LLM-13B-instruct --prompt "以下は、
GPT4 より性能がいいオープンソースのモデルについて
少し前までは Open AI の GPT4 が支配してた感じがする LLM 界隈も、状況が完全に変わって様々な LLM が跳梁跋扈する戦国時代になっています。
ここではその中でもオープンソースの LLM をメインにして解説してみます
GPT4 よりいいと言われているモデル以下は GPT4 より性能がいいと言われているモデルです(指標によっては同等以上ということです、GPT4 のバージョンによっ
高度なRAG検索戦略:Auto-Merging Retrieval (自動マージングリトリーバル)
以前、私たちは文章ウィンドウ検索の高度なRAG検索戦略を探求しました。今日は、別の洗練された検索戦略である自動マージングについて詳しく見ていきましょう。文章ウィンドウ検索よりもやや複雑ですが、以下の説明によってその原理を理解するのに役立ちます。また、LlamaIndexを使用して自動マージング検索を構築する方法と、最終的にTrulensを使用してその検索効果を評価し、以前の検索戦略と比較します。