”More Agent”はLLMの見えない壁を超えるか?
今の生成AI、もっと言えばLLM(大規模言語モデル)は、言語など時系列データに強いTransformerという技法から花が咲いたといっても過言ではないです。
その中でも、従来切り捨てていた過去情報をうまくつなげる”Attention”という仕組みが中核にあります。今でも元論文は誰でも見ることはできます。
GPTをはじめとして、今のメジャーな生成AIサービスは多かれ少なかれこのAttention機構を応用しています。
結果、従来の機械学習の常識を破る「スケーリング則」が発見されて、最強をガンガン超えていくインフレ状態です。関連記事を添えておきます。
この「スケーリング則」が永久に続くかといえば、賛否両論です。
そんな中、今新しい方法で「スケーリング則」、もっといえばLLMのパフォーマンスを高められるというアイデアが話題です。
その論文はこちら。
Attention論文のオマージュ(?)なのか、あえて同フォーマットのタイトルにしています。
砕いて書くと、
「Agentをうまく増やしてもスケーリングするよ」
という話です。
AIに要約してもらいます。
複雑なタスクにおいてその効力を発揮するようですね。
「投票」というのが分かにくいので補足すると、エージェント群に何度も回答させて、他のエージェントとの類似率が最も高いものを選ぶ、というステップを踏みます。
昔、Web2.0が流行ったころに「多数の声は自分よりかしこい(We Are Smarter than Me)」という言葉がはやったのを思い出します。
もう1つ連想したのは、我々の脳内での知的な処理プロセスです。
まだ仮説の域を出ませんが、ジェフ・ホーキンスが提示した「千の脳理論」です。1つ1つのニューロンがLLMに相当し、それらが予選を勝ち抜いて選抜されたものが統合されて、思考など高度な知的活動を実現します。
以前にも紹介したので、興味を持った方は覗いてみてください。
と書いていくと、我々の人間の社会的・還元的な動作との類似性が散見されます。
このあたりのアナロジーは、それこそ「そうあってほしい」という脳のバイアスかもしれませんが、興味深いのでまた追求してみたいですね。
いずれにしても、このエージェント論文に基づくLLMが出てきたらまた紹介してみたいと思います。