見出し画像

RAGを超えて:InCAによるLLMの新しい継続学習

11,980 文字

こんにちは皆さん。オーストリアアルプスは外は凍えるように寒いですが、今日は熱いトピックを用意しました。RAGシステムよりも優れたものはあるのでしょうか。新しいアイデアと研究論文がありますので、一緒に見ていきましょう。
並行して2つのソリューションを探っていきたいと思います。まず、LLMについてですが、LLMの継続学習に進むと重大な問題に直面します。通常、LLMは静的な環境の1つのデータセットで学習させますが、RAGの場合、RAGは安全ではありません。なぜなら、RAGの継続的な更新と新しいインデックス作成などが非常にコストがかかるため、多くのRAGシステムが時代遅れになっているからです。
また、LLMの場合、複数回のファインチューニングを開始しても、事前学習データセットからの破滅的忘却につながってしまいます。つまり、2つの主な問題があり、それを1つの新しいソリューションで解決しようとしています。RAGは安全ではないと言いましたが、RAGを使用している方々は私に同意しないでしょう。
2024年12月の論文「Pirates of RAG: Adaptively Attacking LLMs to Leak Knowledge Base」を読んでみてください。これはRAGシステムを突破する仕組みを理解するのに素晴らしい論文です。あるいは、2024年2月のより基礎的な論文「The Good and the Bad: Exploring Privacy Issues in RAG Systems」も、今日でも有効です。
もちろん、RAGの安全性の問題は検索システム自体に内在する問題で、単なる機能として取り除けるものではありません。例えば、768次元のベクトル埋め込みがあり、このベクトルが医療データの分析方法という意味内容を符号化したベクトル表現であり、その隣にグリーン氏の医療データがある場合を考えてみましょう。
類似度計算でコサイン類似度を使用し、「医療データの分析方法」というクエリを投げると、グリーン氏のプライベートな医療データが返ってくる可能性があります。これはデータのベクトル化の仕組み上、本質的な特徴なのです。そのため、「Pirates of RAG」を是非読んでみてください。RAGがいかにオープンで、データベースにアクセスすることなくRAGを通じてプライベートデータを抽出できるかについて、目が開かれると思います。
ただし、私たちはLLMとRAGについて話していて、LLMの継続学習における破滅的忘却の問題に焦点を当てたいと思います。このビデオ全体は、1回のファインチューニングや1回のアライメントではなく、毎日新しいデータが入ってくる継続的な学習に焦点を当てています。毎日、新しい大規模な学習データセットでLLMをファインチューニングしなければならないのです。
Intelからの新しいアイデアでは、LLMに2つ目のオブジェクトを追加します。適応型フィルターと呼ばれる外部継続学習機(ECL)です。このEモジュールは、以前学習したことを忘れることなく、新しいデータや新しいタスクから順次学習できるようにするという課題に取り組んでいます。これが機能すれば素晴らしいことですが、このシステムはどのように動作するのでしょうか。
プロセスフローを考えてみましょう。ユーザークエリがこの外部モジュールに入力され、このモジュールで何かが起こります。ECLによって新しい文脈学習プロンプトが生成され、複雑さは低減されていますが、新しい学習が行われた場所に関する追加情報がLLMに提供されます。このプライマリLLMは、学習の重みは一切変更せず、モデルはそのままです。新しい部分は、動的な外部継続学習モジュールです。
つまり、プライマリLLMのファインチューニングは不要で、これは素晴らしいことです。非常に高価な既製のLLMを使用できますが、ファインチューニングする必要はありません。OpenAIのo1モデルをこの動的に適応するフィルターでファインチューニングする必要がないことを想像してみてください。
実装面で興味深くなってきます。数学的に健全な方であれば、特定の距離を持つクラス分布のゴリオンモデリングが、非線形行列ベースのクラスでこのモジュールとの関係を効果的に捉えていることがわかるでしょう。この方法論を理解することに興味がある方のために、シカゴ大学イリノイ校、IntelラボUSA、Salesforce AI研究USAによる2024年12月20日に発表された新しい研究論文を見てみましょう。
彼らは文脈学習ではなく、文脈継続学習(ICL)について話しています。これは非常に興味深いです。なぜなら、SalesforceやIntelのように毎日完全に新しいデータが入ってくる場合、毎日LLMを学習させることは不可能で、コストがかかりすぎるからです。そこで、LLMが新しいタスクを段階的に学習できるようにする継続学習プロセスに直面しているのです。
継続学習を理解したい場合は、2021年4月の論文がお勧めです。美しい洞察が含まれており、3つのカテゴリーがあると述べています。タスク増分継続学習、クラス増分学習(CIL)、そして一般的なドメイン増分学習です。今日はクラス増分学習に焦点を当てます。
2023年6月の継続学習の学習可能性とアルゴリズムに関する論文を見ると、特にタスク間クラス分離に本当の問題があります。これは、以前のタスクデータにアクセスせずに新しいタスクを学習すると、新旧のクラス間の明確な境界を確立することが困難である現象を指します。これは未解決の複雑な問題があり、この特定のトピックについて数学的に深く掘り下げたい場合は、この論文が最適だと思います。
私の単純な頭で考えてみると、新しいデータの束ごとにLLMを再学習させ、専門家LLMと専門家エージェントを新しいデータでファインチューニングし、古いデータのベクトル埋め込みを新しい意味的類似性で更新し、新しいデータのベクトル表現をBERTで更新すればいいと思いました。しかし、これを毎週あるいは毎月行ったとしても、1日あたり約800の科学論文が発表されているので、ベクトルストア埋め込みに含まれていない完全に新しい情報の量は膨大です。
そこで、Intelがこれに注目している理由が分かりました。AIシステムで継続的に学習する秘訣は何でしょうか。Intel、Salesforce、イリノイ大学による研究の美点は、彼らのシステムをInCAと呼んでいることです。これは、外部継続学習者とセカンダリLLMによって支援される文脈継続学習です。
この研究の楽しみを台無しにしたくないので、主なアイデアと概念、そして実行方法について説明します。しかし、この研究にはまだまだ多くのことが含まれているので、ぜひ読んでみてください。
一般的なフローから始めましょう。ユーザークエリ、外部継続学習、適応フィルターがモデリングを行い、継続学習のための新しい文脈学習プロンプトを構築し、新しいデータでファインチューニングされていないメインのプライマリLLMがタスクを解決できるようになります。
これがIntelによるInCAフレームワークの概要ですが、RAGシステムとどう違うのか考えると理解しやすいと思います。RAGでは、「次の給与はいつ銀行口座に入金されますか?」というような質問があります。ベクトル空間やベクトルストアがあり、このクエリの意味情報が符号化され、クエリベクトルとして数学的空間のどこかに位置づけられます。
このベクトル空間の中で、コサイン類似度などの類似度計算によって、クエリベクトルの近くに他のオブジェクトがあります。RAGシステムでこれらのベクトルを見ると、「グリーン氏の8月の給与日は12日、9月は11日、10月は14日、11月は15日」というような情報が符号化されています。
検索システムはこれらの回答をプライマリLLMに返しますが、LLMは何をすべきでしょうか。平均を計算したり、より多くのデータがある場合はデータ分布を計算したりできますが、RAGの問題点は、現在の月の給与日がいつになるかを決定できないということです。
新しい方法論InCAでのプロセスフローを見てみましょう。まず、生のテキスト入力から始まります。これは顧客のクエリです。次にタグ生成があり、セカンダリLLMがこの特定の顧客クエリに関連するタグのセットを生成します。これはタスク固有のものです。
次にクラス表現を構築します。各クラスは、タグ埋め込みを使用して統計的に特徴付けられます。各特定のクラスの学習データから得られた埋め込みの統計を表す埋め込みベクトル表現パラメータです。
ここで、新しいECLモジュールが適応フィルタリングに向かう瞬間が来ます。新しい入力インスタンスがシステムに入ってくると、この入力の生成されたタグ間の距離が特定の複雑な距離で測定され、前のステップで作成されたすべてのクラス分布と比較されます。これはタグ埋め込みの平均ベクトルでした。
新しいものが入ってくるたびに、これを古いものと比較して、すでに知っているのか、すでに符号化されているのか、それとも完全に新しいもので埋め込む必要があるのかを見つけ出します。その後、最も近い上位Kクラス(上位5つの回答)が、そのクラスの要約とともに選択され、プライマリLLMによる予測のための新しい文脈継続学習プロンプトに含まれます。
次に、クラスの要約を含む文脈学習を行い、選択されたクラスの要約を含めてクラス予測を行います。上位5つを新しいICLプロンプトに含め、プライマリLLMが単一のプロンプトで与えられた情報に基づいてクラスのメンバーシップを予測します。
新しい更新された継続プロンプトには、テキスト入力(顧客のクエリ)、上位5つのクラスの要約、上位5つのクラス自体、以前に見たクラス名が含まれています。ここで何か気づいたことがありますか?RAGシステムの埋め込みベクトルに表現される単一のデータポイントから、より高いレベルのタグへと移行していることに気づきましたか?
このタグは、いわばメタオブジェクトのように機能し、ある種の一般化を表しています。単一の事実はグリーン氏の医療データでしたが、今や私たちはタグに移行し、タグはより高い複雑性レベルを表しています。InCAは本質的にRAGシステムからベクトルストアから素早く検索される詳細な個人データから離れ、クエリに答えるために必要なプライベートデータを持たなくなりました。
例を見てみましょう。カスタマーサービスデスクや電話などがあるとします。簡単のために、直接入金、給与日、口座残高の3つの特定のクラスだけを考えてみましょう。これらは銀行オフィスのプロセスです。私のクエリは「次の給与はいつ口座に入金されますか?」というもので、RAGの例と非常によく似ています。違いを明確にしたいからです。
まず、セカンダリLLMがタグを生成します。タグは「給与日」「入金」「小切手」「銀行日」「資金移動」などかもしれません。クラスについては後で説明しますが、直接入金クラスがあります。セカンダリLLMの学習データには、「口座入金」「給与」「はい」などのタグを持つ直接入金クラスの多くの入力がありました。
InCAが学習すると、クラスの統計的平均ベクトルが、このクラスの学習例から生成されたすべてのタグの平均埋め込みとして計算されます。これらのタグは高次元ベクトル空間で埋め込みとして表現され、単純な平均操作で組み合わされます。これは簡単なタスクです。意味的または個人的なデータの古典的な埋め込みです。3つのクラスがあると言いましたが、給与日クラスがあり、給与日の説明があり、口座残高クラスがあり、口座残高クラスのタグがあります。
Eクラスフィルタリングは、継続的なICLプロンプトに含めるべき最も確率の高いクラスを教えてくれるだけです。すべてのタグは、同じセンテンストランスフォーマーモデルを使用して高次元ベクトルに埋め込まれます。センテンストランスフォーマーモデルの構築方法について50本のビデオがあり、独自のドメイン固有データと独自の指示データセットで構築する方法や、最新のBERTに関する新しいビデオもあります。
クラス埋め込みベクトルについては、この特定の種類の距離が少し異なります。これは多変量データの重心または全体的な平均と呼ばれるものです。文脈学習プロンプトの構築自体を見てみましょう。InCAは給与日と直接入金(2番目に関連性の高いCLクラス)からの要約と、元のユーザープロンプトを使用して、プライマリLLM用の予測プロンプトを構築します。
青色で示されているように、「ユーザーによって与えられたクエリに基づいて、ユーザーの意図を以下のカテゴリーのいずれかに分類してください」というプロンプトを構築します。RAGで検索システムが200の異なるベクトルを取得するのとは異なり、より高い抽象レベルを持つ2つまたは3つの異なるクラスを使用し、これらのクラスにはクラスの要約を提供します。
プライマリLLMは、どのクラス(2つまたは200のクラスの中から)がユーザークエリに対して正しいクラスかを決定するのに十分なデータを持っています。ユーザークエリは「次の給与はいつ口座に入金されますか?」で、クラスを予測します。プライマリLLMがこの入力が給与日クラスに、そして給与日クラスにのみ属することを識別することを期待します。
これによって何を達成できるのか疑問に思うかもしれません。すぐにお見せします。用語の説明をしましょう。タグは意味的な記述子で、入力テキストの意味を捉えます。クラスはラベルのようなもので、出力カテゴリーを表します。タグはクラス埋め込みを形成し、数学的ベクトル空間での埋め込みにおけるタグの分布は、以前の入力から作成された各クラスの統計的表現を形成するために使用されます。
多くの統計的背景を持つ増分学習があります。Eフィルターはタグに基づいており、InCAは現在のテストインスタンスのタグとクラスの統計的表現との間の距離を計算して、最も関連性の高いクラスを事前選択するために使用します。
先ほど例を示しましたが、タグは重要です。タグは生のテキストデータをクラス表現に接続する意味的な橋渡しであり、最終的に分類手順で使用しようとするテキスト内のクラス固有のパターンのモデリングと処理を容易にします。
これはより高い複雑性を持つシステムであり、IntelによるこのIntel論文を読んでいると、常にMetaによる最新の大規模概念モデル(LCM)の論文について考えていました。IntelとMetaがこの新しいトレンドについて異なる見方をしていることを示せるかと思いましたが、それは複雑すぎるでしょう。もし興味があれば、このビデオを見て、次のビデオで私がこれらの異なる見方について考察するかもしれません。
クラスとタグについて話し、タグが意味的な橋渡しであると言いましたが、タグをどのように得るのでしょうか?最も簡単な方法はLLMを使用することです。Intel論文からのオリジナルのプロンプトがあります。トピックのキーワードに関連するタスクのガイドライン、例が与えられ、LLMは特定のユーザークエリに対してタスクを識別できます。
全体像を見てみましょう。純粋に統計的および数学的な処理モジュールである外部継続学習モジュール(ECL)があります。これはLLMではないことに注意してください。このドメインで作業している場合、ドメインに特化した学習を受けた特定のLLMがあることを知っていれば、タグを提供するだけの同一のLLMを持つことができます。
ユーザープロンプトがLLMに入り、LLMは特定のプロンプトを示し、特定のタグを返します。その後、ECLと適応フィルタリングなどがあります。このフィルターの後、新しい文脈学習、文脈継続学習プロンプトが作成され、最終プロンプトが作成されます。
元の入力クエリ、選択された上位5クラスの名前、各選択されたクラスの簡潔な要約があります。銀行オフィスの特定の金額に対する特定のSQLクエリから、より一般的なカテゴリーに移行しました。このICLプロンプトはAIによって構築され、構造化されたプロンプトはプライマリLLMに渡されます。
このプロセスは、私たちが知っている文脈学習の原則を使用しますが、階層的なより高い複雑性レベルのコンテンツが追加され、LLMが新しい増分クラスを学習できるようになります。その後、LLMは入力インスタンスが属するクラスを予測するという単純なタスクを実行します。
すべての新しい増分学習は右側で行われ、追加のファインチューニングや継続的な学習なしに任意のLLMを使用できます。これが美点だと思います。Intelがこれを行った理由は、重い文脈継続学習プロンプトをすべての情報と共に持っていれば、LLMは新しいデータでも計算できるはずだという考えからです。
InCAはRAGを必要としますか?論文の重要な点は、必要ないということです。なぜなら、純粋に統計的な数学モデル、全く新しいモデルですが、非常に知的なモデルで作業しているからです。InCAは外部コンテンツを取得するのではなく、外部継続モデルによる知的なフィルタリングでプロンプトのスケーリングの問題に対処します。
外部知識ベースは必要ありません。RAGの中核メカニズムは知識ベースからの関連コンテンツの取得ですが、InCAはこの追加リソースを必要とせず、リプレイのためのアーキテクチャを持っています。
では、現在どこにいるのでしょうか。ユーザークエリがあり、新しいInCAクラス分類タスクがあります。タスクの解決にはどのように至るのでしょうか。簡単です。直接回答として、一部のクラスは直接回答にマッピングできます。
クライアントが現在の銀行取引明細や残高などを要求する場合、顧客データベースからの直接取得で回答できます。重要なのは、RAGと埋め込みは必要なく、ベクトルストアも必要ないということです。機能呼び出しやAPIコール、SQLコールだけが必要です。
これは以前に行ったことがあるからです。InCAプロセスから得られたクラスに基づいて、スクリプト化された応答やタスクフローを使用できます。対応するスクリプト化された応答を生成したり、Pythonの環境を起動してIDEを開始したり、タスク指向のワークフローを開始したりできます。
他の例として、クレジットカードの申請ではオンライン申請を埋めるための対話型ダイアログを開始したり、資金移転では操作を実行するためのユーザー確認を得るためのタスクフローを開始したり、パスワードが必要かもしれません。あるいは、事前に定義された何かを実行する方法に関する基本的な説明やリンクを提供できます。
最初の重要な部分は、InCAが行う正確なクラス予測により、InCAがクライアントの要求の文脈的理解を提供することです。これは素晴らしいことです。企業に1,000件のクライアントクエリが並行して入ってくることを想像してみてください。
企業には確立されたプロセスがあり、突然10個の新しいプロセスを発明することはできません。すべてのクライアントクエリを企業の確立されたプロセスにマッピングする必要があります。100のEIIシステムを構築できますが、プロセスは定義されており、相互作用が行われます。
後ほど、産業生産におけるより柔軟なアプローチについて話します。主なアイデアは、この方法論でCクラスを予測することで、システムは各特定のクラスに合わせた高度に特殊化されたワークフローを開始できるということです。
汎用的な方法やEIIシステム、AnthropicやMicrosoftによるプロンプトエンジニアリングを使用する必要はありません。これをタスクや企業、特定のクラスに対して行うことができ、ユーザーがどのような要求を入力しているかを知った後、メソッドは各特定のクラスに対応するように特殊化され、これを呼び出すことができます。
全体的なアクションの複雑さは大幅に減少します。この世界で可能なすべてのクラスについて理解する必要のあるシステムは必要ありません。複雑さを企業で確立されたプロセスに分解し、後で企業で確立する必要のあるプロセスを識別できます。
例を挙げましょう。空港の案内デスクがあり、休暇シーズンだとします。このシステムがない場合を想像できます。AI案内デスクがあり、誰もが入力を行い、長い説明があり、人々は自分たちに何が起こったかを説明します。貧弱な単一のAIがすべてを行い、すべてに解決策を見つけなければなりません。
このAIシステムを過負荷にし、パフォーマンスの低下を引き起こす可能性が高いです。この新しい適応フィルタリングシステムがあれば、各顧客クエリを手荷物の受け取り、チェックイン、紛失物、フライト情報、他のフライトへの乗り継ぎなど、異なるクラスに素早く分類する洗練されたシステムのようなものです。
そして、空港の他のエージェント、第二のAIが特別なタスクに取り組むことができ、これらの専用エキスパートエージェントは1つのタスク、例えば紛失物のタスクのみを実行するように構築されています。これらのエージェントはタスクを非常に速く実行できますが、紛失物のタスクのみを受け取り、フライト情報のタスクは受け取りません。
複雑さを減らし、エージェントをより小さく、より速く、より安価に実行できるようにしています。RAGシステムでのこのシステムを覚えていますか?新しいInCAシステムでは、クエリが入ってきて、給与日クラスが識別され、AIによる給与日の説明があり、ICLを構築し、LLMは「素晴らしい、これを理解し、どのクラスかを決定しなければならない」と言います。
エージェント1からエージェント4までがあり、これはLLMを持つAIエージェントですが、単純な質問、例えば「給与はいつ口座に入金されますか?」に対して、単純な解決策がある場合、AIを使用する必要はありません。単純なルールベースのシステムを使用できます。
特定の企業の給与日が毎月22日で、それが土曜日の場合は次の月曜日に振り込まれ、22日が日曜日の場合は次の火曜日に振り込まれるということがわかれば、AIシステムを適用することなく、起こっているすべての偏差を説明できます。
メカニズムを理解しているからです。平均や分布を計算することは純粋な無意味です。ルールベースだからです。クラスが何であるかを正確に知っており、タスクを特定のエージェントにリンクすれば、AIエージェントである必要はありません。
そのため、より安価で、より速く、より正確で、幻覚を起こさないwin-winの状況です。Salesforce、Intel、イリノイ大学によるこの増分学習とInCA方法論はエレガントで美しいですが、私が示したほど単純ではありません。
しかし、RAGですべてのデータをテラバイト単位のベクトルストアに保存して再学習する複雑さを避け、クラス情報を統計的パラメータに蒸留し、新しいクラスが継続的に到着するたびにステップバイステップで更新します。そのため、継続的に学習でき、システムは継続的に学習します。これが望むことです。
LLMを再学習させたくはありませんが、一般的なタスクを実行できる1つのLLMを持ち、文脈学習プロンプトで、システムが新しいデータを処理できるようにするためのすべての情報を提供したいと考えています。
この方法論における増分学習は、少し複雑です。見てみましょう。新しく遭遇した各クラスを、関連するタグ埋め込みから導出された統計モデルを通じて表現することから始まります。セカンダリLLMについて説明しましたが、新しいクラスJが導入された場合、システムはこのLLMを使用して、その学習データから記述的なタグのセットを生成します。プロンプトについても説明しました。
各タグは、ドメイン固有のBERTモデル、理論物理学や数学、有機化学などのドメインで学習させたセンテンストランスフォーマーモデルを使用して、新しいベクトル空間、新しい数学的空間での高次元ベクトルにエンコードされます。
これらのセンテンストランスフォーマーモデルは意味的内容のベクトル埋め込みを生成し、クラス固有の平均ベクトルμは、生成されたテキストのすべての埋め込みの平均を計算することで計算されます。rは生成されたテキストの総数です。平均ベクトルは、このESERモデルで計算された埋め込み空間内でのクラスJの意味的中心を要約し、新しいクラスが到着したときに増分的に学習されます。
平均ベクトルは重要ですが、別の統計的ツール、別の統計的要素が必要です。数学的空間内のすべてのクラス間で共有できる共分散行列です。InCAフレームワークは、タグ埋め込み間の関係と変動性をモデル化するために共有共分散行列を採用します。タグの変動性、新しいクラスを追加したときのタグの共変動を知りたいのです。
新しいクラスKが導入されると、共有共分散行列へのその寄与ΔKは、タグ埋め込みと平均ベクトルに基づいて計算されます。クラスKを処理した後の現在の共有共分散行列は、以前のデータと新しい寄与を使用して更新されます。新しい数学的公式が示され、増分アプローチを持っています。
これにより、AIシステムが新しいクラスに遭遇するたびに、共分散行列を段階的に更新できます。美点は、以前のデータインスタンスや以前のタスクの埋め込みを保存する必要がないことです。そのため、InCAはリプレイフリーであり、これが主要なポイントの1つです。高速で計算効率が良く、多くのストレージを必要としません。これは素晴らしく、Intelがチームにいた理由が理解できます。
平均ベクトルと増分的に更新される共分散行列は、システム内のすべてのクラスの統計的記述関数を形成します。新しいクラスが出現するたびに同じことを行います。素晴らしい。
そして、外部継続学習者は、入力のタグ埋め込みと各クラスの平均タグ埋め込みベクトル間の特定の距離を使用して、すべてのクラス(例えば2,000または10,000クラス)から最も関連性の高いK個のクラスを選択します。現在の実際の共分散行列を使用することで、上位5つのクラスの要約を含む簡潔なプロンプトを通じて、ターゲットを絞った効率的な文脈学習を可能にします。
彼らがこれをどのように構築したかは興味深いですね。平均ベクトルと増分的に更新される共分散行列だけを持っていますが、ESER(ドメイン固有のアルゴリズム)で構築したベクトル空間で統計的に巧妙な方法で行われています。データを詳細に保存するのではなく、LLMのように自己回帰システムのように統計的レベルで作業します。
平均ベクトルが何をするのか、その定義と、InCAに共有共分散行列が必要な理由を短いテキストで要約しました。これまでに見たすべてのクラスにわたるタグ埋め込みにどれだけの変動や広がりが存在するかについての情報をカプセル化するという主要な文があります。
この新しい増分学習手順により、InCAはプライマリLLMモデルのパラメータを変更することなく、クラスパラメータのみを増分的に更新することで、破滅的忘却を回避できます。このアイデアは素晴らしく、本当に優れています。
この実装には、実時間データを保存しないため最小限のストレージフットプリントがあり、平均ベクトルと共有行列の増分更新のみを扱うため、LLMの完全な再学習と比較して計算効率が良く、より大きなクラスセットにスケーラブルで、推論が速いなどの利点があります。新しい推論方法についていくつかのビデオがあるので、サークルが閉じられています。
これは多くの異なるレベルで素晴らしいアイデアです。今は説明できないほどです。従来のRAGシステムを凌駕する可能性のある新しいプロセス、セカンダリLLMを持つECLの入門ビデオをお届けしました。
このECLは、クラス予測タスクを見てきましたが、はるかに優れており、ECLが特定の時点での特定の財務表記のような特定のデータを本当に必要とする場合、データベースへの関数呼び出しを使用するだけで、埋め込みインデックスシステムは必要ありません。これははるかに速く、はるかに簡単です。
Intel、Salesforce、イリノイ大学の元論文を読めば、ECLの知性は他のシステムを凌駕していることがわかります。ECLは新しいパワーツールかもしれません。あなたの特定のケース、特定のタスクにとってはるかに強力であることが証明されるかもしれません。
なぜなら、新しいデータから継続的に学習を更新する能力があり、RAGでは利用できない継続的な学習が可能だからです。さらに、はるかに安全なシステムを構築しますが、セキュリティについては次回のビデオで説明するかもしれません。
このビデオを楽しんでいただけたなら、新しいアイデアを得られたなら、新しい購読者になりたいと思われたなら、次のビデオでお会いできることを楽しみにしています。

いいなと思ったら応援しよう!