マガジンのカバー画像

LLM

336
運営しているクリエイター

#大規模言語モデル

LangGraphでユーザーの性格分析+会話記憶を持ったチャットエージェントを試作するメモ


はじめにLangGraphは、大規模言語モデルをエージェントとして使うためのフレームワークです。
前回は、法令関連の専門知識をエージェントが探して読み込んで回答する仕組みを試作しました。

今回は、エージェント的に動くチャットボットを試作してみます。

普通のチャットボットの課題感

人間とチャットボット(例: ChatGPT)の間には大きな違いがいくつもありますが、そのうちの一つが、記憶(存在

もっとみる
bitnet.cpp で Llama3-8B-1.58-100B-tokens を試す

bitnet.cpp で Llama3-8B-1.58-100B-tokens を試す

「bitnet.cpp」で「Llama3-8B-1.58-100B-tokens」試したのでまとめました。

1. bitnet.cpp「bitnet.cpp」は、Microsoftが開発した1bit LLM用の推論フレームワークです。主な特徴は、次のとおりです。

2. Llama3-8B-1.58-100B-tokens「Llama3-8B-1.58-100B-tokens」は、「Llama-

もっとみる
Google Colab で Gemma 2 JPN を試す

Google Colab で Gemma 2 JPN を試す

「Google Colab」で「Gemma 2 JPN」を試したのでまとめました。

1. Gemma 2 JPN「Gemma 2 JPN」は、「Gemma 2 2B」を日本語テキストに合わせてファインチューニングしたモデルです。「Gemma 2」での英語のみのクエリと同じレベルのパフォーマンスで日本語をサポートします。

2. Colabでの実行Colabでの実行手順は、次のとおりです。

(1

もっとみる
Google Colab で Gemma 2 Baku 2B を試す

Google Colab で Gemma 2 Baku 2B を試す

「Google Colab」で「Gemma 2 Baku 2B」を試したのでまとめました。

1. Gemma 2 Baku 2B「Gemma 2 Baku 2B」は、「Gemma 2 2B」を「Chat Vector」と「ORPO」(Odds Ratio Preference Optimization) を使用してファインチューニングしたモデルです。「gemma-2 chat形式」に準拠していま

もっとみる
OpenAI API の Evals の概要

OpenAI API の Evals の概要

以下の記事が面白かったので、簡単にまとめました。

1. EvalsAIモデルで開発する場合、出力が正確で有用であることを確認するために、継続的にテストすることが不可欠です。テストデータを使用してモデル出力に対して評価 (Evalsと呼ばれる) を定期的に実行することで、高品質で信頼性の高いAIアプリケーションを構築および維持するのに役立ちます。

OpenAIは、テストデータセットで評価を作成お

もっとみる
WebLLM を使って Qwen2.5-1.5B のブラウザ上でのローカル実行を試す

WebLLM を使って Qwen2.5-1.5B のブラウザ上でのローカル実行を試す

「WebLLM」を使って「Qwen2.5-1.5B」のブラウザ上でのローカル実行を試したのでまとめました。

1. WebLLM「WebLLM」は、「MLC」の技術を活用してWebブラウザ上でLLMを実行できるようにするプロジェクトです。

これにより、ユーザーはローカルのGPUリソースを活用して、プライバシーを保ちながらLLMと対話できるようになりました。

2. WebLLM での実行WebL

もっとみる
Llama 3.2 の概要

Llama 3.2 の概要

以下の記事が面白かったので、簡単にまとめました。

1. Llama 3.2「Llama 3.2 11B・90B」は、チャートやグラフを含むドキュメントレベルの理解、画像キャプション、自然言語の説明に基づいて画像内のオブジェクトの方向を正確に特定するなど、画像推論のユースケースをサポートします。

「Llama 3.2 1B・3B」は、多言語テキスト生成とツール呼び出し機能に非常に優れています。こ

もっとみる
Google Colab で LLM-jp-3 1.8B を試す

Google Colab で LLM-jp-3 1.8B を試す

「Google Colab」で「LLM-jp-3 1.8B」を試したので、まとめました。

1. LLM-jp-3「LLM-jp-3」は、国立情報学研究所の大規模言語モデル研究開発センターによって開発されたLLMです。「LLM-jp-3 172B」の事前学習に使用しているコーパスで学習したモデルになります。各モデルは日本語・英語・ソースコードを重点的に学習しています。「Apache License

もっとみる
OpenAI o1はどう作るのか(詳細編)

OpenAI o1はどう作るのか(詳細編)


1. はじめに前回、OpenAI o1をどう作るかについて概要レベルで議論しました。
OpenAI o1が新しい強化学習手法を用いて強化されたモデルであることは確実であり、具体的にどういうロジックで学習されているか考えていきたいと思います。
強化学習について間違った理解があればご指摘ください。(一応学習はしたものの普段使いしているわけではないので忘れているところもあると思います。)

2. 強化

もっとみる
OpenAI o1はどう作るのか(概要編)

OpenAI o1はどう作るのか(概要編)


1. はじめにOpenAIから久しぶりに新しいモデルが出ました。

OpenAI o1: 強力な推論能力と幅広い世界知識

OpenAI o1-mini: コーディングタスクに特化

モデルについての細かい説明はここではしませんが、OpenAIの公式報告によれば

とのことです。少なくとも既存のLLMからは一歩抜きん出た能力を持っていそうです。

公式からOpenAI o1の詳細な中身については

もっとみる
OpenAI o1 の APIの使い方

OpenAI o1 の APIの使い方

以下の記事が面白かったので、簡単にまとめました。

1. OpenAI o1「OpenAI o1」シリーズは、複雑な推論を行うために強化学習を用いて学習された新しい大規模言語モデルです。回答する前に考える特性があり、ユーザーに応答する前に長い内部思考の過程を生み出すことができます。これにより、科学的な推論に優れ、競技プログラミングの問題 (Codeforces) では89パーセンタイルにランクイン

もっとみる
量子化したローカルLLMによるセンチメント分析モデルのpreprintを公開しました

量子化したローカルLLMによるセンチメント分析モデルのpreprintを公開しました

arXivにローカルLLMを用いたモデル提案のpreprintを公開しました。大規模言語モデル、今回はLLaMA-3を量子化したローカルモデルを使ったセンチメント分析手法の提案ですね。

1. タイトルなどTitle: Dynamic Sentiment Analysis with Local Large Language Models using Majority Voting: A Study

もっとみる
OpenAIの新AIモデル「OpenAI o1」の概要、使い方、評価、安全性などについて詳しく解説

OpenAIの新AIモデル「OpenAI o1」の概要、使い方、評価、安全性などについて詳しく解説

(公式サイトの内容を翻訳してまとめました。)

私たちは、応答する前により多くの時間をかけて考えるよう設計された新しいAIモデルシリーズを開発しました。以下は、最新のo1研究、製品、およびその他の更新に関するニュースです。
https://openai.com/o1/

1.OpenAI o1-previewの紹介https://openai.com/index/introducing-opena

もっとみる
OpenAI o1 の概要

OpenAI o1 の概要

以下の記事が面白かったので、簡単にまとめました。

1. OpenAI o1「OpenAI o1」は、応答する前により多くの時間をかけて思考するように設計された新しいAIモデルシリーズです。以前のモデルよりも複雑なタスクを推論し、科学、コーディング、数学の分野でより難しい問題を解決することができます。

本日 (2024年9月12日)、このシリーズの最初のモデルをChatGPTおよびAPIでリリー

もっとみる