Causal Parrots: Large Language Models May Talk Causality But Are Not Causal
1. 本研究の学術的背景、研究課題の核心をなす学術的「問い」
AIを達成するためにはスケールが全てだとする主張がありますが、本研究は大規模言語モデル(LLM)が因果モデルであることはできないと明確にします。「なぜ我々は時にLLMが因果関係を表現しているかのように感じるのか」という問いが研究の核心です。
2. 本研究の目的及び学術的独自性と創造性
本研究の目的は、LLMが因果推論に成功する場合には、その基底に「メタSCM」と呼ばれる新しい構造的因果モデル(SCM)の一部が存在し、それが結果的にLLMが訓練された自然言語のデータ中の因果関係を露出させるという仮説を立てて検証することです。これは独自性と創造性に満ちたアプローチです。
3. 本研究の着想と研究動向
AIの進行に伴って大規模言語モデルは人間よりも大きな因果関係を理解する能力を持つという主張が一部で出てきました。しかしながら、これは科学的立証されていなかったため、本研究はその仮説の検証を試みました。
4. 本研究で何を明らかにした?
LLMが因果推論を行う際に成功を収める場合、根底には「メタSCM」と呼ばれる新しい一種のSCMが存在し、これが自然言語のデータ内に埋め込まれた因果知識を露出させるように作用しているという可能性を明らかにしました。したがって、現在のLLMはデータに組み込まれた因果知識をただ繰り返す「弱い因果関係のオウム」であると述べています。
5. 本研究の有効性をどのように検証した?
本研究では、LLMsがデータに組み込まれた因果知識を単に繰り返す「弱い因果関係のオウム」であるという仮説を立て、実証的な分析を通じてその有効性を検証しました。