【因子分析】 トムソンの方法・サーストンの方法とは何なのか
こんにちは、Aska Intelligenceの川本です。
因子分析(Factor Analysis)の因子得点の推定で最も古典的なものに、トムソン(Thomson)の方法とかサーストン(Thurstone)の方法と呼ばれる方法があります。回帰法(Regression Method)とか最小二乗法(Least Squares)などとも呼ばれています。
別称多すぎですね。
しかし、その導出が詳しく書かれている文献はほとんど見かけません。そもそもどういう式で何を原理としている方法なのかの説明もなかなか見かけません。トムソンの論文もサーストンの論文も1930年代の論文で、原論文は無料公開はされていません。
それ以前に、入門的な資料では因子得点の推定そのものが触れられていないケースも多いです。
ここでは、とりあえずどういう公式なのかを説明したいと思います。
因子分析モデル
まずはモデルの変数の定義を整理しておきます。因子分析モデルは、$${p}$$個の観測変数を持つデータ $${\bm{x}}$$ ($${p}$$次元ベクトル)に対して
$$
\bm{x} = \bm{f} \Lambda^{\top} + \bm{e}
$$
という式で表現されます。因子数を$${k}$$とすると、$${\bm{f}}$$は$${k}$$次元ベクトルの因子得点(もしくは共通因子)、$${\Lambda^{\top}}$$は$${k \times p}$$行列の因子負荷行列です($${\top}$$は行列の転置)。$${\bm{e}}$$は$${p}$$次元の乱数ベクトルでで、独立因子や残差と呼ばれているものです。
因子得点の推定というのは$${\bm{f}}$$の推定ですが、先にいくつか注意しておくことがあります。
$${\bm{e}}$$は乱数ベクトルなので、$${\bm{x}}$$も確率的に変動する確率変数です。
因子得点$${\bm{f}}$$は推定するパラメーターではなく乱数であるとするバージョンの因子分析モデルも存在します(詳細はこちら)。その場合は$${\bm{f}}$$は推定する量ではありません。ここでは$${\bm{f}}$$を乱数ではなく、推定するパラメーターであるとしています。
$${\bm{f}}$$は、モデルの上では$${k}$$次元ベクトルですが、実際のデータとして$${n}$$個のサンプルがある場合はサンプルに応じた推定値を持つので、これらを並べた$${F}$$という$${n \times k}$$行列を考えます。
従って、実際に推定するのは行列$${\hat{F}}$$です(推定値という意味を含めるためにハットをつけました)。
公式
モデルの上ではデータは確率変数ベクトル $${\bm{x}}$$ ($${p}$$次元ベクトル)ですが、実際のデータとして$${n}$$個のサンプルが与えられた場合は、それらを並べた$${X_{o}}$$という$${n \times p}$$行列を考えます。因子間の直交性を仮定する場合、推定値$${\hat{F}}$$は以下の公式で与えられます:
$$
\hat{F} = X_{o} \hat{C}^{-1} \hat{\Lambda}.
$$
$${ \hat{C}}$$と$${\hat{\Lambda}}$$は、それぞれデータの共分散行列と因子負荷行列の推定値です。
$${\hat{C}}$$には標本データである$${X_{o}}$$から作った標本共分散行列を代入するという説明をしている文献もありますが、おそらく通常はそうしません。$${C}$$は$${\Lambda}$$と$${\bm{e}}$$の共分散行列(これも因子分析で推定する量)の関数として書けるからです。
$${\bm{e}}$$の共分散行列(対角行列)の推定値を$${\hat{V}}$$と書くと、$${\hat{F}}$$は
$$
\begin{aligned}
\hat{F}
&= X_{o} \hat{V}^{-1} \hat{\Lambda} \left(I + \hat{J} \right)^{-1}
\end{aligned}
$$
と書けます。ここで$${ \hat{J} = \hat{\Lambda}^{\top}\hat{V}^{-1}\hat{\Lambda} }$$です。
なぜこの公式になるのか
トムソン(サーストン)の方法を導出するにはもう少し長い説明が必要になるので、ひとまず今回の記事では公式の紹介だけをしました。
なぜこの公式が得られるのか、上記の1つ目の公式から2つ目の公式はどうやって得られるのかの詳細などはZennの本に書いてありますので、興味がありましたら買ってみてください。
この記事が気に入ったらサポートをしてみませんか?