見出し画像

【DeepResearch】LLMの進化はAGIやASIにつながるか?

以下はOpenAI DeepResearchによる調査結果である。


大規模言語モデル(LLM)が今後どこまで知能を発展させるかは、人工知能研究の中でも議論の的です。現在のLLMは高度な文章生成や質問応答が可能ですが、これが汎用人工知能(AGI)や人工超知能(ASI)の実現に結びつくのか、それとも人間の知識模倣の域を出ないのか、専門家の間でも意見が分かれています。本稿では、以下の観点から最新の研究動向と専門家の見解を整理します。

1. LLMの推論能力とその限界

現在のLLM(例えばGPT-4など)は、大量のデータに基づいて一定程度の推論や問題解決を行うように見えます。実際、複雑な質問への回答やプログラミング、試験問題への解答など、人間に近い成果も示しています。しかしその推論はあくまで統計的パターンに基づくものであり、「真に理解して考えている」とは言い難いと指摘されています。計算言語学者のエミリー・ベンダーらは、LLMを「確率的オウム」(stochastic parrots)に例え、文脈の意味を理解せずに単にそれらしく見える言葉の羅列を出力していると批判しました (Emily Bender on AI as a 'stochastic parrot' - The Student Life)。

実際、LLMの限界を示す研究も増えています。Appleの研究者らが数学問題に対するLLMの性能を評価したところ、数値を少し変えただけで正答率が大きく低下するなど、論理的推論の弱さが明らかになりました。この研究は「現行のLLMには真に数学的な推論を行う能力に重大な限界がある」ことを示したと結論づけています (Apple pours water on unreasonable LLM hype - AI - Telecoms.com)。また、アリゾナ州立大学の研究者らは、現行のLLMは計画立案や一貫した論理的推論が苦手であり、本質的には「巨大な擬似システム1」に過ぎないと述べています(※システム1=直感的で迅速だが浅い思考) (Can LLMs reason and plan? - Artificiality)。このように、長期的な一貫性深い因果関係の理解が要求されるタスクでは、LLMはしばしば人間ほどの柔軟性を示せず、的外れな回答や矛盾を生じることがあります。総じて、現在のLLMは膨大なデータに基づく模倣とパターンマッチングによって高度な応答を生成しているものの、その推論能力には根本的な限界があると多くの専門家が見ています (Emily Bender on AI as a 'stochastic parrot' - The Student Life) (Apple pours water on unreasonable LLM hype - AI - Telecoms.com)。

2. 人間の模倣を超えられる可能性

LLMは人間の文章データを学習しているため、「所詮は人間の模倣」に留まるのではないか、という懸念があります。トレーニングデータ以上の知識や創造性を発揮できるのかは疑問ですが、一方でモデルの巨大化に伴い創発的特性(エマージェントな能力)が現れることも報告されています (Linkpost: Are Emergent Abilities in Large Language Models just In ...)。創発的特性とは、小さいモデルでは見られなかった振る舞いが、モデルの規模や学習データ量を増やすことで突然現れる新たな能力のことです (Linkpost: Are Emergent Abilities in Large Language Models just In ...)。例えば、大規模モデルでは小規模モデルができなかった複雑な算数問題の解答や、多段階の推論ができるようになるケースが確認されています。このような予測困難な能力の出現は、LLMが単なるデータの寄せ集めを超えて一般的な知能の片鱗を見せている可能性を示唆しています。

実際、最新のLLMの中には人間の平均的な性能を上回る成果を挙げているものもあります。例えば、OpenAIのGPT-4は法律試験(バー試験)で受験者上位10%相当のスコアを記録し、生物学オリンピックでも参加学生の99%を上回る成績を示したと報じられています (GPT-4 Beats 90% Of Lawyers Trying To Pass The Bar - Forbes)。これは、人間の作成した知識データを学習したモデルが、限定的とはいえ特定分野で人間超えのパフォーマンスを発揮した例と言えます。またDeepMindの研究者は、ひとつの大規模モデル(Gato)がテキスト対話や画像キャプション、ロボット操作など600以上の多様なタスクをこなせる汎用性を示したとも報告しています (Focus on Gato, DeepMind's general-purpose agent capable ... - ActuIA)。これらの結果は、適切にスケールしたLLMが人間の模倣を超えて新たな汎用能力を獲得しうる希望を与えます。

しかしながら、こうした楽観的な見方に対して慎重な声もあります。MetaのチーフAIサイエンティストであるヤン・ルカンは、「現在のLLMをいくら発展させても人間レベルの知能には達しない」と指摘し、人間の知能自体が真に汎用ではない以上「AGIというものは存在しない」とまで述べています (Meta's AI chief: LLMs will never reach human-level intelligence)。要するに、人間の模倣から飛躍できないという見解です。また、LLMが示す創発的な能力も結局は訓練データに内在するパターンの延長線上にあるとの指摘もあります。LLMは自ら物理的世界を観察したり新しい知識を獲得したりすることができず、あくまで与えられたデータの範囲内で新奇に見える組み合わせを生み出しているに過ぎない可能性があります。このため、真の汎用知能には人間並みの常識的直観物理世界とのインタラクションが不可欠であり、テキストデータ上で完結するLLMには超えられない壁があるという主張です (Emily Bender on AI as a 'stochastic parrot' - The Student Life)。

一方で、LLMのスケールアップによるAGI実現に強い期待を示す専門家もいます。DeepMindの研究者ナンド・デ・フレイタス氏は、Gatoの成果を踏まえて「AGI実現へのゲームは終わった」つまり後はモデルを大きく洗練させていくだけだと大胆に宣言しました (Google Says It's Closing in on Human-Level Artificial Intelligence)。この発言は、モデルの巨大化と性能向上の延長線上に汎用知能が現れるという見通しを示しています。ただし現時点では、この意見は研究者間でも賛否が分かれるところです。まとめると、LLMが人間の模倣を超えて汎用知能に至るかどうかは未だ不確定であり、創発的な進化への期待と根本的限界への懸念が併存している状況です。

3. AGI/ASIに向けた他のアプローチ

LLM以外にもAGIやASIを目指す多様なアプローチが研究されています。これらはLLMとは異なる視点から汎用的な知能の実現を模索するものです。それぞれの手法の現状と可能性を概観します。

  • 進化的アルゴリズムによるアプローチ: 生物進化にならい、アルゴリズムを世代交代させながら最適化することで、創発的に高度な知能を生み出そうという試みです。例えばJeff Cluneらは「AI-GA(AI-Generating Algorithms)」と称し、進化的プロセスによって次第に高度なAIを自動生成するパラダイムを提唱しています (AI-generating algorithms, an alternate paradigm for producing ...)。これは多様なAIエージェントを環境内で競争・選択させ、オープンエンド(無目的かつ無限)に進化させることで、予期しない問題解決能力を持つ汎用AIが生まれる可能性に賭けたアプローチです。実例として、強化学習と進化戦略を組み合わせてエージェントとタスクを同時に進化させる「POET」といった研究も行われています(環境とエージェントをペアで進化させ、常に新しい課題に適応させる試み) (AI-generating algorithms, an alternate paradigm for producing ...)。進化的アルゴリズムの利点は探索の多様性にあり、人間が設計しなかった解決策を発見する可能性があります。ただし、現状ではシンプルなタスクでの成果に留まっており、この方法だけで人間レベルの知能に到達できるかは未知数です。計算コストの高さや、進化過程のコントロールの難しさも課題として指摘されています。

  • 強化学習(RL)によるアプローチ: 強化学習は、エージェントが環境との試行錯誤を通じて報酬を最大化するように学習する手法で、能動的な問題解決に強みがあります。DeepMindのAlphaGoやAlphaZeroは、強化学習(自己対戦型の学習)によって囲碁やチェスで人間を凌駕する戦略を身につけました (How did AlphaZero achieve superhuman performance in games like ...)。特にAlphaZeroは人間の棋譜データなしでゼロから自己学習し、数日でトッププロを超える水準に達しており、タスク限定的ながら超人的性能を示した例と言えます ([PDF] Mastering the Game of Go without Human Knowledge)。この成功は、強化学習が適切な環境設定の下で人間以上の知的行動を獲得できることを示しました。現在の研究は、こうした能力をより汎用的な状況に拡張することに向かっています。DeepMindが開発した「XLand」という仮想環境では、何百種類ものゲームでエージェント同士を遊ばせることで、状況適応力の高い一般的なエージェントの創出を目指しています (DeepMind's new system could take us a step closer to general AI)。実際、XLandでのオープンエンドな訓練からは、単一の強化学習エージェントが個別のタスクに特化することなく「与えられた様々な目標を達成できる」汎用的スキルが現れたとの報告もあります (DeepMind's new system could take us a step closer to general AI)。強化学習アプローチの強みは、物理シミュレーションやゲーム環境などを通じて現実世界に近い経験を積ませられる点です。これにより、純粋なテキスト学習では得られない試行錯誤からの学び計画立案能力が育まれる可能性があります。ただし、現時点ではこれらの汎用エージェントも限定された仮想環境内での話であり、現実世界の複雑性に対応できるAGIとなるには更なるブレークスルーが必要です。

  • 神経科学に基づくアプローチ: 人間の脳そのものを手本に、知能のメカニズムを解明・再現しようとする流れです。脳の回路を丸ごとエミュレートすることで人間並みの知能を得ようとする極端な例では、「全脳エミュレーション(Whole Brain Emulation)」の構想があります ([PDF] AGI and Neuroscience: Open Sourcing the Brain)。これは脳内の神経回路図を詳細に解析し、そのままコンピュータ上で再現しようという試みで、欧州のHuman Brain Projectなどが脳シミュレーション研究を進めています ([PDF] AGI and Neuroscience: Open Sourcing the Brain)。まだ人間の脳全体のシミュレーションには程遠いものの、一部の神経回路や小動物(例:線虫やマウスの脳回路)のシミュレーション研究が進みつつあります。また、脳に着想を得たAIとしてニューラルネットワーク以外にも、スパイキング・ニューラルネット(発火するニューロンモデル)やニューロモーフィック・チップ(脳神経の動作をハードウェアで模倣した専用回路)などの開発も行われています。これらはエネルギー効率や並列分散処理など、人間の脳の計算原理に学んだ設計で汎用知能に迫ろうというアプローチです ([PDF] AGI and Neuroscience: Open Sourcing the Brain)。さらに、心理学や認知科学で提唱されている認知アーキテクチャ(例:人間の記憶・注意・推論の仕組みを取り入れたソフトウェア構造)をAIに実装する試みもあります。SoarやACT-R、最近ではシンボル推論と深層学習を組み合わせたニューロシンボリックAIなど、人間の認知過程を再現することで汎用性を持たせようという研究です。神経科学アプローチは、人間の知能の本質に迫ることで原理的にAGIを実現しようとする点に魅力がありますが、その実現には脳の動作原理の更なる解明や、大規模シミュレーションを支える計算基盤の飛躍的進歩が必要です。

これら代替アプローチはそれぞれ独自の可能性を秘めていますが、いずれも研究途上にあります。進化的手法は斬新な解決策を生み出す一方で収束性の問題があり、強化学習は物理的制約とデータ効率の課題、脳模倣アプローチはスケールの壁と未解明の科学的問題を抱えています。現実的には、これらの手法とLLM技術を組み合わせたハイブリッドな戦略も模索されています。例えば、LLMに外部のツール使用やメモリ機構を与えて計画能力を補完する試み(ニューロシンボリック融合)や、ロボット工学とLLMを統合して身体性を持つ知能を作る研究などです。

総括すると、現在のLLMがこのままスケールアップしてAGI/ASIに至ると考える専門家もいれば、根本的にアプローチを変えなければ限界を超えられないと考える専門家もいます。人間の模倣に留まるのかを判断するにはまだ時期尚早ですが、少なくとも汎用人工知能への道筋は一つではなく、進化アルゴリズム・強化学習・神経科学など多方面からの研究が並行して進められているのが現状です。それぞれのアプローチが今後融合し、相補的な長所を活かすことで、真のAGIやさらにはASIに近づいていく可能性があります。現時点ではLLMは万能ではないものの、引き続き研究コミュニティは人間の知能を超えるAIを目指して試行錯誤を重ねていると言えるでしょう。 (Meta AI chief says large language models will not reach human ...) (AGI Evolution: The Risks and Rewards of Recursive Self-Improvement) (※References)

いいなと思ったら応援しよう!