はち

外資系IT企業勤務。最近はLLMにハマってます。

はち

外資系IT企業勤務。最近はLLMにハマってます。

最近の記事

  • 固定された記事

OpenAI o1はどう作るのか(概要編)

1. はじめにOpenAIから久しぶりに新しいモデルが出ました。 OpenAI o1: 強力な推論能力と幅広い世界知識 OpenAI o1-mini: コーディングタスクに特化 モデルについての細かい説明はここではしませんが、OpenAIの公式報告によれば とのことです。少なくとも既存のLLMからは一歩抜きん出た能力を持っていそうです。 公式からOpenAI o1の詳細な中身については言及がありませんが、信憑性の高そうな話として、Google DeepMindの論

    • OpenAIの新しいマルチエージェント用フレームワークSwarmを試す

      Google ColabでSwarmを試したのでまとめました。 1. SwarmOpenAIが新しくマルチエージェント構築のためのフレームワークを作り始めました。まだ実験的なフレームワークで、本番環境での使用を想定していないようで、今の所かなりシンプルな仕組みに見えます。 エージェントの調整と実行を軽量で、制御性が高く、テストしやすいものにすることに重点を置いているようです。 2. Google Colabで実行してみる2.1 実行準備 ライブラリのインストール !p

      • AIによるエージェントシステムの自動設計:ADASを試してみた

        はじめにOpenAI o1の登場で、OpenAIの掲げるAGIへの5ステップのうちの2ステップ目まで到達したということが話題になりました。 OpenAIのAGIまでの5ステップというのは、以下のように定義されているようです。CEOのサム・アルトマン氏は、10 年以内にレベル 5 に到達すると予測しています。 conversational AI:ChatGPT reasoning AI:OpenAI o1 🆕 autonomous AI innovating AI

        • OpenAI o1はどう作るのか(詳細編)

          1. はじめに前回、OpenAI o1をどう作るかについて概要レベルで議論しました。 OpenAI o1が新しい強化学習手法を用いて強化されたモデルであることは確実であり、具体的にどういうロジックで学習されているか考えていきたいと思います。 強化学習について間違った理解があればご指摘ください。(一応学習はしたものの普段使いしているわけではないので忘れているところもあると思います。) 2. 強化学習の手法一般的に強化学習において、最終的な目標は方策モデル(方策関数)の性能を

        • 固定された記事

        OpenAI o1はどう作るのか(概要編)

          LangGraphを使ったReflection Agent: SNS投稿コンテンツ提案Agent

          はじめにSakana AIさんのThe AI Scientistを筆頭に、LLM-Based Agentの社会活用は今後拡大してくと考えています。また、Agentで推論→結果を合成データとしてTuningに利用みたいな流れで、LLM自体の発展にもAgentは活用されていくと考えます。 これらをモチベーションに最近LLM-Based Agentの勉強をしており、試しに作ったものを一部Noteで共有できたらと思っています。 今回は、LLM-Based Agentの基本的なア

          LangGraphを使ったReflection Agent: SNS投稿コンテンツ提案Agent

          LangGraph:既存ワークフローへのAgentの追加(マルチエージェントワークフローの構築)

          先日作成した『書類要約ワークフロー』に新しいAgentを追加して機能拡張する手順を整理します。 『書類要約ワークフロー』の詳しいコードは以下をご参照ください。 1. 追加するもの前回と今回のワークフローを比較します。 前回は以下のNodeで構成されていました。  select_file: 要約するファイル選択する(ToolNode)  summarize: ファイルを要約する(Agent) この後に以下のノードを追加します。  create_report: ファイル全体か

          LangGraph:既存ワークフローへのAgentの追加(マルチエージェントワークフローの構築)

          LangGraph:書類要約ワークフローの構築

          最近は、以下の点からLLMの進化が遅くなってきているように感じます。 GPT-4oがClaude 3.5 SonnetやGeminiにChatbot Arenaで負け始めている GPT-4oをはじめとしたClosedモデルに、Llama 3.1のようなOpenモデルのベンチマークスコアが追いついてきている 一方で、Sakana AIさんのThe AI ScientistのようなLLM-Based Agentにはまだまだ伸び代があると感じます。 LLM-Based Ag

          LangGraph:書類要約ワークフローの構築

          WizardLM-2の開発方法: Auto Evol-Instruct

          はじめに2024年4月に高い性能を叩き出し、オープンライセンスで公開されたにも関わらずすぐにHugging Faceから消されたWizardLM-2というモデルがあります。(現在、HuggingFace上には非公式のモデルのみ公開されています。短期間公開されていたタイミングにダウンロードされていたのでしょうか。) 以下のように高い性能を叩き出したことでWizardLM-2は注目を集めましたが、コードも論文も公開されておらず、その開発方法は概要レベルでしか知られていませんで

          WizardLM-2の開発方法: Auto Evol-Instruct

          時系列基盤モデルによる株価データ(多変量)の類似度算出と検索

          1. はじめに今回は時系列基盤モデルを使って、多変量の時系列データのEmbeddingを作成し、そこから時系列データ同士の類似度を算出するというのを試していきたいと思います。 元々、時系列データの類似度を算出する方法としては以下の2つがあったと思います。(時系列を専門にやってきたわけではないので間違っていたらご指摘お願いします。) 動的時間伸縮法(DTW: Dynamic Time Warping)を利用して、単変量毎の類似度を算出。各次元の類似度を統合する。 LST

          時系列基盤モデルによる株価データ(多変量)の類似度算出と検索

          Google Colabで時系列基盤モデルを試す④:amazon chronos-t5

          はじめにGoogle Timesfm、Moment、IBM Graniteに引き続き、HuggingFaceにある商用可能なライセンスの時系列基盤モデルを4つ試し、比較していきたいと思います。 利用するデータはETTh1という電力変圧器温度に関する多変量時系列データセットです。事前学習にこのデータが含まれる可能性があるため、モデルの絶対的な評価に繋がらないことに注意してください。 google/timesfm-1.0-200m ダウンロード数:4.59k モデルサイズ:

          Google Colabで時系列基盤モデルを試す④:amazon chronos-t5

          Google Colabで時系列基盤モデルを試す③:IBM granite

          はじめに前々回のGoogle Timesfm、前回のMomentに引き続き、HuggingFaceにある商用可能なライセンスの時系列基盤モデルを4つ試し、比較していきたいと思います。 利用するデータはETTh1という電力変圧器温度に関する多変量時系列データセットです。事前学習にこのデータが含まれる可能性があるため、モデルの絶対的な評価に繋がらないことに注意してください。 google/timesfm-1.0-200m ダウンロード数:4.59k モデルサイズ:200m

          Google Colabで時系列基盤モデルを試す③:IBM granite

          Google Colabで時系列基盤モデルを試す②:AutonLab MOMENT

          はじめに前回のGoogle Timesfmに引き続き、HuggingFaceにある商用可能なライセンスの時系列基盤モデルを4つ試し、比較していきたいと思います。 利用するデータはETTh1という電力変圧器温度に関する多変量時系列データセットです。事前学習にこのデータが含まれる可能性があるため、モデルの絶対的な評価に繋がらないことに注意してください。 google/timesfm-1.0-200m ダウンロード数:4.59k モデルサイズ:200m ライセンス:Apa

          Google Colabで時系列基盤モデルを試す②:AutonLab MOMENT

          Google Colabで時系列基盤モデルを試す①:Google timesfm

          はじめにTransformerアーキテクチャにテキストデータを大量に読み込ませたらある程度あらゆる場面で使えるモデルができたというのがGPTやBERTなどの言語のFoundation Model(基盤モデル)です。 それと同じ発想で、あらゆる時系列データを読み込ませたら、あらゆる場面で使える時系列モデルが作れるのではないかという発想で作ったのが時系列の基盤モデルになります。 HuggingFaceにある商用可能なライセンスの時系列基盤モデルを4つ試し、比較していきたいと思

          Google Colabで時系列基盤モデルを試す①:Google timesfm

          LLMによる合成データ(Synthetic Data)生成のテクニック

          私は最近、LLMによるSynthetic data(合成データ)生成を試しています。手法について色々調べたり試したことをまとめておこうと思います。 個別の論文の詳細については他の方の記事や私の過去記事でまとめたりしてあるので、どちらかというと合成データ生成における方向性にどんなものがあるのかという観点で紹介したいと思います。 概要LLMによる合成データ生成には、その使い道から以下の2つの種類があります。 蒸留 (Distillation) 自己改善 (Self-impr

          LLMによる合成データ(Synthetic Data)生成のテクニック

          論文メモ: Self-Rewarding Language Models

          私は最近、LLMによるSynthetic data(合成データ)生成を試しています。手法について色々調べているので論文等忘れないようにこの場にメモを残していきたいと思います。 基本的に、『Synthetic dataをどう作るか』によったメモとなるので、その論文中の結果等は書かなかったりすると思います。 また、内容には私、GPT、Claudeの見解を含みます。 1. 今回の論文今回は以下の論文を読みました。Metaによる論文です。 まとめるとこんな感じの内容でした。 強

          論文メモ: Self-Rewarding Language Models

          論文メモ: Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models

          私は最近、LLMによるSynthetic data(合成データ)生成を試しています。手法について色々調べているので論文等忘れないようにこの場にメモを残していきたいと思います。 基本的に、『Synthetic dataをどう作るか』によったメモとなるので、その論文中の結果等は書かなかったりすると思います。 また、内容には私、GPT、Claudeの見解を含みます。 1. 今回の論文今回は以下の論文を読みました。Google DeepMindによる論文です。 まとめるとこんな感

          論文メモ: Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models