- 運営しているクリエイター
#大規模言語モデル
LangGraphでユーザーの性格分析+会話記憶を持ったチャットエージェントを試作するメモ
はじめにLangGraphは、大規模言語モデルをエージェントとして使うためのフレームワークです。
前回は、法令関連の専門知識をエージェントが探して読み込んで回答する仕組みを試作しました。
今回は、エージェント的に動くチャットボットを試作してみます。
普通のチャットボットの課題感
人間とチャットボット(例: ChatGPT)の間には大きな違いがいくつもありますが、そのうちの一つが、記憶(存在
Google Colab で Gemma 2 JPN を試す
「Google Colab」で「Gemma 2 JPN」を試したのでまとめました。
1. Gemma 2 JPN「Gemma 2 JPN」は、「Gemma 2 2B」を日本語テキストに合わせてファインチューニングしたモデルです。「Gemma 2」での英語のみのクエリと同じレベルのパフォーマンスで日本語をサポートします。
2. Colabでの実行Colabでの実行手順は、次のとおりです。
(1
Google Colab で LLM-jp-3 1.8B を試す
「Google Colab」で「LLM-jp-3 1.8B」を試したので、まとめました。
1. LLM-jp-3「LLM-jp-3」は、国立情報学研究所の大規模言語モデル研究開発センターによって開発されたLLMです。「LLM-jp-3 172B」の事前学習に使用しているコーパスで学習したモデルになります。各モデルは日本語・英語・ソースコードを重点的に学習しています。「Apache License
OpenAI o1はどう作るのか(詳細編)
1. はじめに前回、OpenAI o1をどう作るかについて概要レベルで議論しました。
OpenAI o1が新しい強化学習手法を用いて強化されたモデルであることは確実であり、具体的にどういうロジックで学習されているか考えていきたいと思います。
強化学習について間違った理解があればご指摘ください。(一応学習はしたものの普段使いしているわけではないので忘れているところもあると思います。)
2. 強化
OpenAI o1はどう作るのか(概要編)
1. はじめにOpenAIから久しぶりに新しいモデルが出ました。
OpenAI o1: 強力な推論能力と幅広い世界知識
OpenAI o1-mini: コーディングタスクに特化
モデルについての細かい説明はここではしませんが、OpenAIの公式報告によれば
とのことです。少なくとも既存のLLMからは一歩抜きん出た能力を持っていそうです。
公式からOpenAI o1の詳細な中身については
OpenAIの新AIモデル「OpenAI o1」の概要、使い方、評価、安全性などについて詳しく解説
(公式サイトの内容を翻訳してまとめました。)
私たちは、応答する前により多くの時間をかけて考えるよう設計された新しいAIモデルシリーズを開発しました。以下は、最新のo1研究、製品、およびその他の更新に関するニュースです。
https://openai.com/o1/
1.OpenAI o1-previewの紹介https://openai.com/index/introducing-opena