LangChainの解説です。
⏱️ タイムスタンプ
00:00 はじめに
00:26 LangChainとは
01:19 採用情報
02:55 LangChainのモジュールについて
03:47 モデル
05:37 プロンプト
06:43 メモリ
08:21 インデックス
08:58 チェインズ
11:06 エージェント
14:32 ユースケース:YouTubeビデオアシスタント
27:45 私がこれに全力投球する理由
28:15 データフリーランサーって何?
公開日:2023年4月21日
※動画を再生してから読むのがオススメです。
データサイエンティストやAIエンジニアにとって、今、最高の機会の一つだと本気で思っています。
このビデオでは、Pythonを使ったLangChainライブラリの紹介をします。
LangChainは、大規模な言語モデルを使ったアプリケーションを開発するためのフレームワークです。
すべてのモジュール、クイックスタートガイド、そして最後に、あなたが提供した任意のYouTubeビデオに関する質問に答えることができるパーソナルアシスタントとなる、最初のアプリを作成します。
YouTubeとは何でしょう?
OpenAIのGPTモデルのような大規模な言語モデルを利用したアプリケーションを開発するためのフレームワークです。
APIを使ってこれらのモデルと対話するのではなく、例えば、基本的には質問をするのですが、これはChatGPTと対話するときに行うことで、バックグラウンドでは、メッセージを送信し、メッセージを返してもらうだけのAPIになっています。
これが、大規模な言語モデルとの通常の対話の仕方です。
LangChainは、それを支えるフレームワークで、アプリケーションをデータアウェアやエージェントにすることも可能です。
データアウェアとは、言語モデルを他のデータソースに接続できることです。
また、エージェンティックとは、言語モデルがその環境と相互作用できるようにすることです。
つまり、単に質問して情報が返ってくるだけでなく、例えば、これから紹介するさまざまなツールを使って、その情報に基づいて行動することができるのです。
さて、なぜLangChainのようなフレームワークを学ぼうと思ったのでしょうか?
というと、これを正しく理解すれば多くのチャンスがあると思うので、どうしても深入りしたいのです。
私はフリーランスのデータサイエンティストとして働いていますが、ここまでは基本的にデータサイエンティストとしての私の仕事は、企業、通常は過去のデータをたくさん持っている大企業を助け、それを使って機械学習モデルを訓練することです。
しかし、OpenAIモデルのような事前に訓練された大規模な言語モデルによって、膨大な量の履歴データを持たない中小企業でもAIの力を活用し始めることができるようになったのです。
私は今フリーランスとして働いていますが、そのおかげで、中小企業と仕事をする機会が多く、小さなプロジェクトをこなしながら、その企業に大きなインパクトを与えることができますし、多くの履歴データを使った大規模な機械学習プロジェクトもこなせます。
また、何が出てくるかわからないということもあります。
ですから、データサイエンス・プロジェクトの多くは失敗しています。
そして、このような大規模な言語モデルを、小規模企業や大規模企業で利用することは、AIプロジェクトを行う上でより予測可能な方法になると思います。なぜなら、モデルはすでに存在しており、その機能が分かっているからです。あとは、追加情報を提供し、特定の用途に合わせて調整するだけなのです。
ですから、もしあなたがこれを学び、LangChainを理解し、より具体的にはこの特定のフレームワークの基本原理を理解すれば、今後多くの素晴らしい機会を得ることができるようになると思います。
これを正しく理解すれば、本当に多くのお金を稼ぐことができるのです。
では、さっそく本題に入りましょう。
まず、LangChainライブラリのモジュール、つまりインテリジェントなアプリを作るのに使えるビルディングブロックの説明から始めます。
そして、各コアコンポーネントを簡単に説明した後、VSCodeのクイックスタートガイドから例を挙げます。
コード上でどのように見えるか、どのように使うことができるかというアイデアも持っているわけです。
また、このプロジェクトにはGitHubページが用意されており、説明文にあるリンクにアクセスすれば、クローンして一緒に進めることができます。
ここでは、このプロジェクトの設定方法、必要なAPIキーの種類、環境の設定方法、.envファイルにキーをインストールする方法についても説明しています。
もし慣れていないのであれば、このGitHubのページをチェックすることをお勧めします。
でも、この「はじめに」のページに戻ってください。
ここでは、すべてのモジュールを複雑な順に並べています。
まずはシンプルに、モデルから始めましょう。
LangChainがサポートしているモデル統合を紹介します。
ここに全リストがありますので、チェックしてみてください。
OpenAIのモデルもありますし、例えば、ハグする顔など、現在サポートされている様々なモデルもあります。
これが最初のモジュールです。
では、VSCodeでどのように見えるか見てみましょう。
ここでは、LangChainライブラリからOpenAIのモデルをロードする例を示します。
モデル名を指定することで、基本的にモデルを定義することができます。
この例では、ダヴィンチ3というモデルを使用します。
OpenAIのAPIリファレンスを見ると、たくさんのモデルがあり、その中から選ぶことができることがわかります。
私は現在、GPT 4のウェイティングリストに載っています。
ですから、それにアクセスできるようになれば、さらに良くなると思います。
しかし、ここで例に戻ってみましょう。
モデルを読み込んで、基本的にはプロンプトを与えることができます。
例えば、PythonとAIに関する詩を書くとします。
まずモデルを初期化し、次にプロンプトを保存します。
そして、モデルを呼び出してプロンプトを入力します。
すると、プロンプトとともにOpenAI APIへの接続が送信されます。
そして、その結果を返してくれます。
これは大規模な言語モデルと対話する一般的な方法であり、ChatGPTでも行えることです。
APIから返された詩をご覧ください。
この時点では、何も新しいことはありません。
しかし、これは言語モデルと対話するために必要な出発点なのです。
次に、プロンプトの管理、プロンプトの最適化、プロンプトのシリアライズを行うためのものです。
プロジェクトに戻ると、ここにプロンプト・テンプレートがあり、LangChainライブラリとプロンプト・テンプレートからインポートすることができます。
このテンプレートには入力変数とテンプレートが用意されています。
これでできることは、PythonでF文字列を使うのと同じように、ユーザの情報を聞いたり、変数の情報を取得したりして、それをプロンプトに反映させることです。
このクラスを使って、もっといろいろなことができるようになります。
しかし、これはあくまで基本的な例です。
ですから、プロンプトのテンプレートはこちらで用意できます。
これをはっきりさせましょう。
このように、入力変数がproductであることを確認した上で、中括弧の間にproductを入力します。
そして、prompt.formatを呼び出すと、productを入力することができます。
これを実行すると、プロンプトが表示されることがわかります。
大規模な言語モデルを使ってスマートなアプリを作る会社の名前は何が良いでしょうか?
そして、3つ目のコンポーネントはメモリです。
つまり、インテリジェントなアプリに長期記憶と短期記憶の両方を持たせることで、ユーザーとの以前のやりとりを忘れないように、より賢くすることができるのです。
ここで例に戻って、会話チェーンをインポートしてみましょう。
これもlength chainからconversation chainをインポートしています。
この仕組みは、モデルを再び初期化し、会話を開始するものです。
そして、その会話に対してpredictメソッドを呼び出し、入力を与えます。
今、会話は空ですが、これを送信して予測することができます。
すると、会話が成立することがわかります。
ここには一般的なプロンプトがあるわけです。
つまり、以下は人間とAIのフレンドリーな会話です。
AIは饒舌で、その文脈から具体的なディテールをたくさん提供する、などです。
つまり、これはすでにライブラリの中でエンジンがかかっていて、そして人間がそこにこんにちはと言う。
そして、AIが応答を提供してくれる。
そして、それが出力されます。
それを印刷すると、「こんにちは。
よろしくお願いします。
ご用件は何でしょうか?
そして次にできることは、この出力を使って、「私はうまくいっています」という別の予測をすることです。
AIと会話しているようなものです。
では、これを実行してみましょう。
ここに履歴が表示されています。
まず「こんにちは」があり、次にAIからの応答があり、そしてまたここに私たちの応答が表示されています。
今入力したものをもう一度印刷すると、AIが「あなたと会話できてうれしいです」と応答しているのがわかります。
どんな話をしたいですか?
さて、次はインデックスです。
言語モデルは、自分のテキストデータと組み合わせることで、より強力になることが多いのです。
このモジュールでは、まさにそれを行うためのベストプラクティスについて説明します。
ここが本当にエキサイティングなところなんです。
これは、以前お話しした例ですが、自社のデータ、つまり既存のデータを使って、企業向けのスマートなアプリケーションを構築することができるのです。
このビデオの最後に紹介する例で、さらに詳しく説明します。
しかし今は、ドキュメントローダー、テキストスプリッター、ベクターストア、そしてリトリーバーがあることを知っておいてください。
このように、自分たちのデータを扱うようになると、本当にわくわくします。
しかし今は、LangChainモデルのもう一つのコアコンポーネントであるチェーンに話を進めましょう。
チェーンとは、単に一つの大きな言語モデルの呼び出しにとどまらず、一連の呼び出しのことです。
LangChainはチェーン用の標準インターフェイスを提供し、他のツールとの統合や一般的なアプリケーションのためのエンド・トゥ・エンドチェーンを数多く提供しています。
つまり、ここが本当に物事をまとめ始める場所なのです。
モデルやプロンプト、メモリは、それほど新しいものではありませんね。
ChatGPTでも使っていますし、見たこともあります。
しかし、これらを連鎖させ始めると、本当にエキサイティングになるのです。
では、コードではどうなっているのでしょうか?
LangChain.chainsからインポートできるLLMチェーン節を見てみましょう。
先ほどのモデルの設定とプロンプトがあれば、会社名、会社名、会社名、会社名、会社名、会社名、会社名、会社名、会社名、会社名、会社名
会社名が決まったら、実際にこのチェーンを走らせることができます。
プロンプトテンプレートは、プロンプトを作成するためのものです。
モデルはAPIとの接続を行うためのものです。
そして今、私たちはこれを連鎖させることができます。
では、早速これを保存して、このチェーンをセットアップしてみましょう。
入力パラメータとして、モデルとプロンプトを用意します。
そして、これを実行することができます。
では、別の例を試してみましょう。
歯科医院向けのAIチャットボットを作る会社の名前として、「AI DENTEC」はいかがでしょうか。
大好きです。
さて、これで、これをアプリケーションにする方法が見えてきましたね。
プロンプトをあらかじめ定義しておき、それをユーザーの入力と組み合わせて、チェーンを使って実行するのです。
ですから、たとえば「会社名ジェネレーター.AI」のようなウェブアプリにすることができます。
これが基本です。
ここで重要なのは、このテンプレートに何を入れるかについて、本当に賢くなることです。
これは非常にわかりやすい例で、会社の名前は何がいいかというものです。しかし、ここでは本当に具体的に、特定のユースケースに合わせた多くの情報を提供し、ユーザーの入力から求めている結果を得ることができます。
このビデオの後半で、YouTubeのAIアシスタントの開発を始めたら、この良い例をお見せします。
そして、最後のコンポーネントであるエージェントです。
エージェントは、大規模な言語モデルによって、どの行動を取るべきかを決定し、その行動を取り、観察し、それが完了するまで繰り返します。
このエージェントを使って、AutoGPT BabyAGIのような独自のアプリケーションを構築することができます。
ツール、エージェント、ツールキット、エグゼキュータがあり、ツールは、例えば、箱から出してすぐに使えるあらゆる種類のツールがあります。
Google検索、Wikipedia、SERP APIによるGoogle検索など、あらゆるものが利用できます。
また、これらのエージェントを使用する場合、大規模な言語モデルを使用することになります。
例えば、GPTモデルは、どのツールを使うべきかを評価し、そのツールを使って情報を取得し、それを大規模言語モデルにフィードバックします。
Pandasのデータフレームエージェントもありますが、これは質問応答用に最適化されています。
ここでは簡単な例を示しますが、基本的に何行あるかと尋ねると、Pandasのデータフレームと対話し、length関数でデータフレームの長さを取得し、それを結果として提供することができることを知っています。
クイックスタートガイドにある別の例を見てみましょう。
エージェントを使い始めたい場合、エージェントの初期化、エージェントタイプ、ロードツールをインポートして、エージェントにツールを提供することができます。
そして、ここに戻ってくると、まずすべてのツールをリストアップすることができます。
これらは、先ほどドキュメントで紹介したウェブサイトにもありますが、ここでは、エージェントにそのツールを提供するために使用しなければならない特定の名前を見ることができます。
例えば、エージェントを作成し、ウィキペディアにアクセスできるようにし、数学もできるようにしたいとします。
このようにツールを設定し、ツールで提供されたエージェント、つまりこちらで定義されたモデルを初期化することができます。
エージェントのタイプは、ゼロショット反応記述で、基本的には、エージェントに与えるプロンプトに基づいて、問題を解決するために最適なツールを選択します。
つまり、基本的にはエージェントが自分でツールを選びます。
このように、エージェントにツールのセットを提供すると、エージェントが自分でどのツールを使えば最適な答えが得られるかを判断してくれるようになるのです。
では、このクエリを試してみましょう。Pythonがリリースされたのは何年か、オリジナルの作者は誰か、年を3倍して、Wikipediaと数学にだけアクセスできるようにします。
なるほど。
では、まずこれを実行してみましょう。
何をするのか見てみましょう。
新しい実行者は、わかりました。
Wikipediaというアクションが必要なことを理解し、Pythonというプログラミング言語が入力されていることがわかります。
Wikipediaで検索するクエリであることが理解できます。
そして、Pythonの要約の履歴を取得します。
よし、これで質問に答えるのに十分な情報が得られた。
最終的な答えは、Pythonは1991年にGuido van Rossemによって作られ、年を3つ掛けると5,763になるということですね。
なるほど。
これは本当にすごいことですよね?
ChatGPTやGPTのモデルにはない、インターネットから生きた情報を得ることができます。
そして、その結果も保存されているのです。
ここではプレーンテキストの文字列を見ることができます。
これが使えるようになったのです。
さらに、複数のチェーン、複数のプロンプト、エージェントによる情報の取得、メモリによる保存など、すべてを組み合わせていくことができます。
これで、本当にクールなものを作ることができるようになりました。
なるほど。
では、特定のYouTubeビデオに関する質問に答えるアシスタントを作成する方法をお見せします。
インデックスの話に戻りますが、大規模な言語モデルを自分のデータと組み合わせると、本当に強力になることは以前説明しました。このシナリオでは、この使用例では、YouTubeのトランスクリプトを自動的にダウンロードします。
しかし、基本的にこのトランスクリプトを他の情報に置き換えても、このアプローチは機能します。
LangChainライブラリにはドキュメントローダー、テキストスプリッター、ベクターストアがあり、これらすべてを使うことになります。
まずドキュメント・ローダーについてですが、これは基本的に小さなヘルパー・ツールで、特定のドキュメントを簡単に読み込めるようにするものです。
現在サポートされているものはすべてこちらで確認できます。
Discord、Figma、Git、Notion、Obsidian、PDF、PowerPoint、そしてYouTubeなどがあります。
ではまず、このドキュメント・ローダーを使って、ビデオのURLからYouTubeのトランスクリプトを取得する方法を紹介しましょう。
さて、VSCodeに戻ると、ここにビデオURLがあります。それは、Lex Friedmanのポッドキャストで、彼がOpenAIのCEOであるSam Altmanと話しているポッドキャストです。このビデオは例として使うのに適していると思いました。
そこでまず、ドキュメントローダーを使って、このポッドキャスト、2時間半のビデオのトランスクリプトを読みます。
そのために、まずドキュメントローダーからYouTubeローダーをインポートして、ビデオのURLを入力します。
では、これを実行し、何が得られるか見てみましょう。
これでローダーができました。トランスクリプトを取得するには、loader.loadメソッドを呼び出します。
では、ここでこのメソッドを呼び出し、実行します。それがしばらく実行された後、こちらのトランスクリプトを見ることができます。これは、ここにあるすべてのテキストを含む、非常に長い文字列です。
さて、これで完全なトランスクリプトが得られ、それはリスト内にあり、ページコンテンツを使って実際の文字列、トランスクリプトを得るためにアクセスすることができます。
しかし、ここで次のような問題が発生しました。
トランスクリプトの長さを確認するためにこれを実行すると、そこに含まれるトークンの数を確認することができます。
これが総文字数で、100,000文字以上あることがわかります。
10万文字以上の完全なトランスクリプトを、大規模な言語モデルのAPIに提供することはできないからです。
あまりにも大きすぎるのです。
ですから、このトランスクリプトに関する質問にモデルが答えられるようにするには、トランスクリプトを完全に送信せずに、質問に答えるために必要な情報を提供するための回避策を見つけなければなりません。
そこでテキストスプリッターの出番です。APIドキュメントを見ると、OpenAIモデルのモデルごとの最大トークンを見ることができます。
今使える最新のモデル、つまりGPT 3.5 Turboを使うと、APIに入力できるトークンは4096個になります。
すでにGPT-4を使っている場合は、基本的にトークン・サイズを大きくすることができますが、今のところ4000トークン程度にとどまっています。
では、10万トークンを超えるトランスクリプトがある場合、どう対処すればいいのでしょうか。
テキストスプリッターを使って、まずこれをいくつかのチャンクに分割することができます。
つまり、「この原稿はこのサイズだが、1000文字ずつのチャンクサイズに分割したい」ということです。
ここで、少し重なりを持たせるかどうかを指定することもできます。
これを実行すると、テキストスプリッターを実行し、まずテキストスプリッターを定義して、テキストスプリッターの分割ドキュメントを呼び出し、先ほど作成したトランスクリプトを挿入してみましょう。
これがこのオブジェクトで、ドキュメントとページのコンテンツが入ったリストがここにあります。
そして、これを実行すると、こうなります。
これでdocsができました。docsの中身を見てみると、分割されたドキュメントの束が入ったただのリストであることがわかります。
10万トークンを超える非常に大きなトランスクリプトを、1000個の塊に分割しているのです。
なるほど。
これが最初のステップです。
なるほど。
では、トランスクリプトを分割したけれども、APIに提供することはできないのでは?
そうです。
そこで、次のパートが登場します。
それがエンベッディングとファクター・データベースです。
これはかなり技術的な話なので、このビデオでは詳しく説明しません。
なぜなら、今はこの使い方の簡単なデモと概要を説明し、後でもっと具体的に説明したいと思うからです。
しかし、まず最初に、OpenAIからの埋め込みを使用して、基本的にテキストを変換します。つまり、作成したばかりの1000トークンの分割をベクターに変換します。この場合、ベクターはテキスト自体の数値的な表現になります。
つまり、テキストを数値のベクトルに変換するのです。
そして、Facebookが開発した、効率的な類似性検索に利用できるライブラリである顔ライブラリを利用します。
これを組み合わせて、基本的にはここにあるようなすべての文書のデータベースを作成します。
そして、ユーザーがこのYouTubeのトランスクリプトに関して質問をしたい場合、まず類似性検索を行い、ユーザーが質問しているプロンプトに最も似ているチャンクを見つけます。
つまり、すべての要素を含むデータベースがあり、それを類似性検索して、必要な情報の関連部分を見つけることができるということです。
そして、これが大規模な言語モデルと自分のデータを扱う際の重要なポイントです。
まず、フィルターやルックアップテーブルを作成して、必要な情報だけを取得し、それを質問とともに大規模言語モデルに提供します。
この関数「YouTubeの動画URLからDBを作成」ですべてをまとめると、任意の動画URLに対してトランスクリプトを読み込み、それを1000トークンの塊に分割して、この関数で返すベクトルデータベースオブジェクトに格納することができます。
次にできることは、これを別の関数、get response from queryに渡して、先ほど作成したデータベースを使用して特定の質問に答えることです。
では、これはどのように動作するのでしょうか?
データベースとクエリを提供します。
ビデオについて尋ねたい質問をget response from queryという関数に渡し、さらにKというパラメータを用意します(デフォルトは4です)。
これは、APIに送信するトークンの量を最大化するためのものです。
そして、ここからが本当に面白いのですが、クエリを使ってデータベースの類似性検索を行うと、K個のドキュメントが返ってきます。
つまり、質問を与えると、これらの文書をすべて調べ、最も似ているものを見つけます。
つまり、類似性検索を行うのです。
そして、すべてのドキュメント(デフォルトでは4つ)が揃ったら、それらを1つの文字列に結合し、モデルを作成します。
そして次に、プロンプトのテンプレートを定義します。
このビデオで先に見たように、ここは本当にクリエイティブになれる場所です。
この例では、YouTubeの動画に関する質問に、動画のトランスクリプトに基づいて回答する親切なアシスタントを想定しています。
そして、入力パラメータdocsを用意し、先ほど作成した文字列に置き換えます。
つまり、ドキュメント情報はすべてトランスクリプトの事実情報のみを使用して質問に答えているのです。
質問に答えるのに十分な情報がないと感じたら、I don't knowと答えてください。
回答は冗長で詳細であるべきです。
このように、どのようなアプリケーションを作りたいかに応じて、テンプレートをデザインすることができます。
このテンプレートの中でちょっとした変更を加えることで、あらゆる業界向けのまったく異なるアプリを作成することができます。
なるほど。
そして、次のステップは、これらをすべて連鎖させることです。
今回はチャット機能を使い、GPT3.5ターボモデルを使用しているため、少し異なりますが、クイックスタートにすべて記載されています。
まず、一般的なモデルの使い方を説明し、次にチャットモデルについて説明しています。
ここでは、システムメッセージプロンプトとヒューマンメッセージプロンプトがあるので、構文が少し違います。
これは、基本的にシステム用のメッセージやプロンプトを最初に定義するのに適しています。
これは、AIやエージェントが何をすべきかを説明するテンプレートで、この上に説明があります。
そして、人間が提供する質問や入力を変更するためのプロンプトを用意します。
例えば、私は次の質問に答えてから、ここにある質問を入力します。
このように、今必要かどうかはわかりませんが、ユーザーからの入力も変更することができます。
そうすると、そのようになります。
そして、そのすべてをチャットプロンプトに統合します。
そして、先ほど見たように、チャットとプロンプトを連鎖させることができるのです。
そして、先ほど見たように、その連鎖を再び実行することができます。
そして、クエリーと先ほど定義したドキュメントを入れるだけです。
なるほど。
これで必要な構成要素がすべて揃ったので、実際にこれらの関数を呼び出すことができます。
では、ビデオのURLを定義して、まずこのビデオからデータベースを作成しましょう。
これで何ができるかを見てみましょう。
トランスクリプトを取得し、それを変換するという流れです。
これでデータベース・オブジェクトができたので、ここでクエリを入力し、クエリからの応答取得関数を呼び出して、このビデオのトランスクリプトに関する特定の質問に答えることができます。
では、実際に何を話しているのか見てみましょう。
このビデオを全部見る時間はないけれど、AGIについての話にはかなり興味があるとします。
そこで、私はここに来て彼らの話を聞くことができます。しかし、このアプリケーション、つまりこの機能にも来て、彼らがAGIについて何を言っているのかを記入することができます。
これが問い合わせで、次はその回答をプリントしてみましょう。
これで完了です。
ビデオでは、AGI、人工知能、そしてそれを開発するためにOpenAIが行っている仕事、CEOのSam Altmanなどについて議論しています。
というわけで、トランスクリプトをもとに質問に答えてくれています。
では、別の質問をしてみましょう。このポッドキャストのホストは誰でしょう?
一度に全部やってみましょう。
このポッドキャストのホストが誰なのかは、トランスクリプトではわかりません。
しかし、このポッドキャストはサム・アルトマンやジョーダン・ピーターソンといったゲストとの会話を収録しており、レックス・フリードマンという人物がホストを務めていることが記されています。
なるほど、これは実に興味深い。
すべての情報を持っているわけではないが、すべての実体を認識し、それが正しいことを認めているのだ。
これはLex Friedmanのポッドキャストです。
では、別のものを試してみましょう。
マイクロソフトについて何を言っているのでしょうか。
このトランスクリプトでは、スピーカーがマイクロソフトとのパートナーシップについて、そして彼らがいかに素晴らしいパートナーであったかを語っています。
なるほど、素晴らしいですね。
この関数、get response from queryはレスポンスだけでなく、ドキュメントも返します。
実にクールです。
この場合、答えを得るために使っているドキュメントを見ることもできます。
この場合、元のコンテンツへの参照も得られるので、追加調査やモデルの事実確認を行い、実際に正しい答えを出しているかどうかを確認したい場合に非常に便利です。
さて、これで基本的に動作するアプリができました。あとは、このアプリの周りに簡単なウェブページを作り、どこかのサーバーやウェブアプリに投稿するだけで、人々がこのアプリと対話することができます。
YouTubeのURLを送ったり、質問をしたり、あなたの代わりにやってくれるのです。
このようなものを見ていると、本当に頭がクラクラしてきます。
例えば、このアプローチだけでできることとして、ある特定のトピックについて話しているチャンネルのリストを作るとします。
例えば、AIについて最新の情報を得たいとします。
ポッドキャスト・チャンネルや人気のあるチャンネルをすべてリストアップし、小さなスクリプトを作成して、そのページで新しいビデオが公開されているかどうかを時々チェックし、すべてのURLをスクレイピングして、これらの関数ですべてのビデオを処理します。このようにして、プロンプトから有用な情報を抽出し、例えば、研究するために使用したり、ソーシャルメディアのアカウント、例えば、AIに関する最新情報をつぶやくTwitterアカウントやAIについて話すYouTubeチャンネルを作成したりできるように、本当に設計することができるのです。
本当にすべてをスカウトして、よし、レックス・フリードマンのポストカードはAGIについて何を言っているんだろう?
ジョー・ローガンはAGIについてどう言っているのか?
そして、それをすべて自動で行い、さまざまなエージェントと組み合わせて、その情報をファイルとして保存することができます。
このように、可能性は無限大なのです。
というわけで、今言ったように、私は本当にこの分野に深く潜り込んでいくつもりだ、なぜなら今とても多くのチャンスがあるからだ。
そして、学びながら、私のYouTubeチャンネルで皆さんに最新情報をお伝えしていきます。
もし興味があれば、今後の動画を見逃さないように購読しておいてください。
そして、本当に驚いたことに、企業から、これらのツールの導入やAIの活用を手伝ってほしいという依頼をすでにたくさん受けているんだ。
メッセージも大量に届いていて、本当にエキサイティングです。
フリーランサーである私にとって、これは本当にエキサイティングな機会であり、小さなクライアントや小さな会社と仕事を始め、これらのツールを実装するために、本当にエキサイティングな瞬間です。
もし、あなたがこの機会を利用して、フリーランスとして仕事を始めたいけど、何から始めたらいいかわからないと感じたら、ぜひ、データフリーランサーをチェックしてみてください!これは、データでフリーランスとしてのキャリアをスタートさせたいけど、何から始めたらいいかわからないというデータ専門家のために、私が特別に企画したマスターマインドです。
このマスターマインドでは、初めて報酬を得られるプロジェクトを立ち上げるために必要なことを、文字通りすべて学ぶことができます。
私はこれまでに開発したすべてのシステムとモデルを共有しており、データ分野のフリーランスをシステム化して、クライアントが途切れることがないようにしています。そして、皆さんは他のデータ専門家がフリーランスキャリアに取り組むコミュニティの一員になることでしょう。
そして、より多くのお金を稼ぎ、楽しいプロジェクトに取り組み、自由を生み出すという同じ目標に取り組むために、私たちは皆ここに集まっているのです。
それが、私たちがここでやろうとしていることです。
友達と遊ぶように、でも実際のビジネスで結果を出すために。
もしあなたがフリーランスを考えていたり、AIの世界で今ある素晴らしい機会を利用したいと思っていても、何から始めたらいいのかよくわからないなら、Data Freelancerをチェックして、説明にある最初のリンクから、ウェイティングリストに登録してみてください。