経済・ファイナンスデータの計量時系列分析(2)

前回:


移動平均(MA)過程

時系列データに自己相関がある場合、モデル化する方法の一つに移動平均(MA)過程というデータ生成過程が存在する。

MA過程はホワイトノイズを拡張したデータ生成過程となっており、1次の自己相関を持つモデル(MA(1)と書く)は以下の式で表すことができる。右辺の第三項に一つ前の時刻の系列の要素が含まれているため、時刻 t と t-1 に相関を持つモデルとなっている。

$$
y_t = \mu + \varepsilon_t + \theta_1 \varepsilon_{t-1}    \varepsilon_t \sim W.N.(\sigma^2)
$$

$${\theta_1}$$は自己相関の強さを表すパタメータとなっているため、このパタメータが高ければ高いほど1次の自己相関が強くなるような式になっている。また、このMA過程はホワイトノイズのみにより確率的変動が起きるようになっているため、このホワイトノイズを撹乱項と呼ぶ。

期待値と分散

結論から先に書くと、MA過程では期待値は$${\mu}$$、分散は$${(1 + \theta_1^2)\sigma^2}$$となる。

まず期待値は以下の式により求められる。右辺の第二項、第三項はそれぞれホワイトノイズとなるため期待値は0となり、定数となる$${\mu}$$のみが残る結果となる。

$$
E(y_t) = E(\mu + \varepsilon_t + \theta_1 \varepsilon_{t-1}) \\
= E(\mu) + E(\varepsilon_t) + E(\theta_1 \varepsilon_{t-1}) \\
= \mu
$$

次に分散についてだが、分散は単純にホワイトノイズを用いた過程とは異なり、$${\sigma^2}$$ではなく、以下の式により$${(1 + \theta_1^2)\sigma^2}$$となる。ホワイトノイズの2つの系列は共分散が0であるため、最後の式ではそれぞれの分散を足し合わせたものとなる。そのため、通常のホワイトノイズを使った過程よりも分散が大きい。

$$
\gamma_0 = Var(y_t) \\
= Var(\mu + \varepsilon_t + \theta_1 \varepsilon_{t-1}) \\
= Var(\varepsilon_t) + \theta_1^2 Var(\varepsilon_t) + 2\theta_1Cov(\varepsilon_t, \varepsilon_{t-1}) \\
= (1 + \theta_1^2)\sigma^2
$$

特性

MA過程は自己相関の強さを決めるパラメータ$${\theta_1}$$が正の値で大きいほど滑らかなグラフになるという特性がある。1次の相関係数が1に近いと時刻が1ずれている系列で同じ方向に動く可能性が高いという傾向があるため、人間の目で見てあまりギザギザしているグラフにはならない。逆に言うと、$${\theta_1}$$が負の値であるとホワイトノイズを利用した単純な過程よりもギザギザしているように見える。

自己相関

では、実際に1次のMA過程がどういった自己相関を持っているのかを確認する。

$$
\gamma_1 = Cov(y_t, y_{t-1}) \\
= Cov(\mu + \varepsilon_t + \theta_1 \varepsilon_{t-1}, \mu + \varepsilon_{t-1} + \theta_1 \varepsilon_{t-2}) \\
= Cov(\varepsilon_t, \varepsilon_{t-1}) + Cov(\varepsilon_t, \theta_1 \varepsilon_{t-2}) + Cov(\theta_1 \varepsilon_{t-1}, \varepsilon_{t-1}) + Cov(\theta_1 \varepsilon_{t-1}, \theta_1 \varepsilon_{t-2}) \\
= \theta_1 \sigma^2
$$

最後から2つ目の式変形では、$${\mu}$$は時刻 t に依存しない系列であるため他の系列との共分散は0となり、$${Cov(\mu, \varepsilon_{t-1})}$$などは除外している。上記は1次の自己共分散であるため、そこから1次の自己相関係数は以下の式で求めることが出来る。$${\theta_1}$$の値が-1から1の範囲にある場合は$${\rho_1}$$の最大値は0.5となる。

$$
\rho_1 = \frac{\gamma_1}{\gamma_0} \\
= \frac{\theta_1}{1+\theta^2_1}
$$

また、1次のMA過程では2次以降の自己相関は無いことが上記の式の t - 1 を t - k (k = 2, 3, …)に変えてみると分かる。そのため、MA(1)は2次以降の相関は無く、モデル化できるのは1次の相関までとなっている。

一般化

先ほどまでは1次のMA過程(MA(1))を想定していたが、これをq次のMA過程へ一般化することが容易にできる。その場合は、以下の式によってあらわすことができ、q次までの自己相関のある系列をモデル化することが可能となる。

$$
y_t = \mu + \varepsilon_t + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \cdots + \theta_q \varepsilon_{t-q}    \varepsilon_t \sim W.N.(\sigma^2)
$$

この場合、MA(q)は以下の特性を持つ。

  1. 期待値は$${\mu}$$

  2. 分散は$${(1+\theta^2_1+\theta^2_2+\cdots+\theta^2_q)\sigma^2}$$

  3. k次の自己共分散

    1. $${\gamma_k=(\theta_k+\theta_1 \theta_k+\cdots+\theta_{q-k} \theta_q)\sigma^2,    1 \le k \le q}$$

    2. $${0,    k \ge q + 1}$$

  4. k次の自己相関

    1. $${\frac{\theta_k+\theta_1 \theta_k+\cdots+\theta_{q-k} \theta_q}{1+\theta_1^2+\theta_2^2+\cdots+\theta^2_q},    1 \le k \le q}$$

    2. $${0,    k \ge q + 1}$$

  5. MA過程は常に定常

また、q次のMA過程には欠点もある。
それが"パラメータが非常に多い"ということだ。q次のMA過程ではq個のパラメータ$${\theta_1, \theta_2, \dots, \theta_q}$$が必要となるが、これらはすべてデータから推定をしなければならない。そのためパラメータ推定の難易度が上がり、パラメータ数が多いことでより特定のデータへの過剰適応がされやすくなってしまう。

自己回帰(AR)過程

自己回帰過程(Autoregressive Process, AR Process)はMA過程と同様に自己相関をモデル化することができる過程となっているが、MA過程とは異なる点として t 時刻の系列に t-1 時刻の自身の系列が含まれているという特徴がある。

$$
y_t = c + \phi_1 y_{t-1} + \varepsilon_t,       \varepsilon_t \sim W.N.(\sigma^2)
$$

上記は1次元のAR過程でAR(1)と表記する。
右辺の第二項に$${\phi_1}$$という係数がかかった t-1 時刻の自身の系列が存在する。そのため、1次の自己相関があるのは見てのとおりだが、MA過程とは異なり1次のAR過程にも2次以降の自己相関が存在する。そのため、AR過程は一般にMA過程よりもグラフがなめらかに見えることが多い。

期待値と分散(と自己共分散・自己相関)

AR過程の期待値を分散は以下の式で求めることができる。

$$
E(y_t) = E(c + \phi_1 y_{t-1} + \varepsilon_t) \\
= c + \phi_1 E(y_{t-1})
$$

AR過程の期待値は定数項$${c}$$と係数のかかった時刻 t-1 の系列の期待値$${\phi_1 E(y_{t-1})}$$を合わせたものになる。このとき、この系列の定常性を仮定する場合は時刻 t と t-1 で期待値が一致するため、以下の式によって期待値を定数項と係数のみで表すことができる。

$$
E(y_t) = c + \phi_1 E(y_{t-1}) \\
E(y_t) - \phi_1 E(y_{t-1}) = c \\
E(y_t) = \frac{c}{1-\phi_1}
$$

次に分散は以下の式で求めることができる。

$$
Var(y_t) = Var(c + \phi_1 y_{t-1} + \varepsilon_t) \\
= Var(\phi_1 y_{t-1}) + Var(\varepsilon_t) + Cov(\phi_1 y_{t-1}, \varepsilon_t) \\
= \phi_1^2 Var(y_{t-1}) + \sigma^2
$$

このとき、期待値と同様にこの系列の定常性を仮定した場合には自己共分散が時刻 t に関わらず一定になるため、以下の式で表すことができる。

$$
Var(y_t) = \phi_1^2 Var(y_{t-1}) + \sigma^2 \\
Var(y_t) - \phi_1^2 Var(y_{t-1}) = \sigma^2 \\
Var(y_t) = \frac{\sigma^2}{1 - \phi_1^2}
$$

また、k次の自己共分散と自己相関について求めてみると以下の式で表すことができる。

$$
\gamma_k = Cov(y_t, y_{t-k}) \\
= Cov(c + \phi_1 y_{t-1} + \varepsilon_t, y_{t-k}) \\
= Cov(\phi_1 y_{t-1}, y_{t-k}) + Cov(\varepsilon_t, y_{t-k}) \\
= \phi_1 Cov(y_{t-1}, y_{t-k}) \\
= \phi_1 \gamma_{k-1}
$$

$$
\gamma_k = \phi_1 \gamma_{k-1} \\
\frac{\gammna_k}{\gammna_0} = \phi_1 \frac{\gamma_{k-1}}{\gammna_0} \\
\rho_k = \phi_1 \rho_{k-1}
$$

k次の自己共分散・自己相関はそれぞれk-1次の自己共分散・自己相関に係数$${\phi_1}$$をかけたもので表されていることが分かる。そのため、k次の自己相関に関してさらに式を分解していくと、係数$${\phi_1}$$のk乗によって求めることもできる。

$$
\gamma_k = \phi_1 \gamma_{k-1} = \phi_1^2 \gamma_{k-2} = \cdots = \phi_1^k \gamma_0 = \phi_1^k
$$

上記から言えることは、系列の定常性を仮定した場合はk次のAR過程のk次以降の自己相関は0ではないということだ(MA過程とはここが異なる)。しかし、変形した式を見ると係数$${\phi_1}$$が1より小さい場合は指数的に減衰していくことが明らかである。

特性

AR過程の自己相関からわかるとおり、MA過程よりも系列を可視化した際によりなめらかなグラフとなる。これは係数$${\phi_1}$$の値に寄っても変化する。

一般化

AR過程の一般化は上記とほぼ同様の方法で導出することができる。
この記事ではAR(p)の性質のみを記載しておく。注意点として、系列は定常であるという過程のもとに以下の性質は成り立っている。後述するが、性質5の自己相関の指数的な減衰については、AR過程の定常性の条件となる$${\phi \lt 1}$$があるからこそ成り立っている。

  1. $${ \mu = E(y_t) =  \frac{c}{1 - \phi_1 - \phi_2 - \cdots - \phi_p}}$$

  2. $${ \gamma_0 = Var(y_t) = \frac{\sigma^2}{1 - \phi_1 \rho_1 - \phi_2 \rho_2 - \cdots - \phi_p \rho_p } }$$

  3. $${ \gamma_k = \phi_1\gamma_{k-1} + \phi_2\gamma_{k-2} + \cdots + \phi_p\gamma_{k-p},     k \ge 1}$$

  4. $${ \rho_k = \phi_1\rho_{k-1} + \phi_2\rho){k-2} + \cdots + \phi_p\rho_{k-p},     k \ge 1}$$

  5. 4より、AR過程の自己相関は指数的に減衰する

自己回帰移動平均(ARMA)過程

自己回帰移動平均(ARMA)過程は、前述のAR過程とMA過程の療法を含んだ過程となっている。AR過程、MA過程ではそれぞれk次の過程をAR(k), MA(k)と記載していたが、ARMA過程ではそれぞれのパラメータを用いて(p, q)次のARMA過程(ARMA(p, q))と表現する。

(p, q)次のARMA過程の性質は以下のとおりとなっている。

  1. $${ \mu = \frac{c}{1 - \phi_1 - \phi_2 - \cdots - \phi_p} }$$

  2. $${ \gamma_k = \phi_1\gamma_{k-1} + \phi_2\gamma_{k-2} + \cdots + \phi_p\gamma_{k-p},     k \ge 1}$$(※)

  3. $${ \rho_k = \phi_1\rho_{k-1} + \phi_2\rho){k-2} + \cdots + \phi_p\rho_{k-p},     k \ge 1}$$(※)

  4. ARMA過程の自己相関は指数的に減衰する

※ 性質2, 3はq+1次以降の場合のみ。

ARMA過程はAR過程とMA過程の双方の特性を持っているが、基本的にはどちらか強い方の性質が適用されるらしく、上記ではほとんどがAR過程の性質が適用されている。ただし、性質2, 3はq+1次以降の場合のみという制限がかかっており、これはq次まではAR過程だけではなくMA過程の自己相関も含まれるため算出が複雑になるためである。(q+1次以降はMA過程では自己相関はすべて0となる)

AR過程の定常性

ARMA過程の中で、MA過程の部分は常に定常となるが、AR過程の部分は常に定常とはならない。AR過程が定常となる条件は、結論から言うとAR過程の自己相関の特性方程式の解がすべて1より小さくなることである。

p次のAR過程の自己相関の特性方程式は以下の式で表すことができる。

$$
1 - \phi_1 z - \phi_2 z^2 - \cdots - \phi_p zp = 0
$$

この特性方程式の根がすべて1より小さいことが定常の条件となるのだが、これの導出などについてはあまりうまく理解できなかった。(以前授業で特性方程式を扱った際も意味が理解できず暗記で乗り切ってしまった…)

解説してくれている記事があるので読んでみたが、あまり理解できている気がしない…おそらく言っていることは、特性方程式によって一般化した系列の時刻を極端に大きくした場合でも、分散を実際に計算してみるとある条件の中であれば発散しないということだと思う。そしてその条件が特性方程式の根がすべて1より小さい(分母にそれぞれの根があるので)という理解であっているのだろうか…

言われてみると「そうかも…」となるのだが、自分はこういった基礎が欠落しているためわかりやすい解説がない場合はなんのこっちゃとなってしまう。

MA過程の反転可能性

MA過程ではAR過程とは異なり、常に定常となるので定常性の問題は特に怒らない。しかし、MA過程は別の問題が存在する。それが、同じ期待値、自己共分散の異なる過程が存在するということだ。この場合、自己相関のある系列をモデル化する際にどのMA過程を用いればよいのかがはっきりせずに困る。

そこで複数のMA過程の中から選択する基準の一つとして、反転可能性というものが挙げられる。

反転可能なMA過程とは、∞次のAR過程に書き直すことができるもののことを言う。一般にq次のMA過程のなかで同一の期待値と自己共分散を持つ過程は$${2^q}$$個存在することが知られているらしいが、その中で反転可能なものは一つしか存在しないという。

反転可能なMA過程を判断するには、AR過程の自己相関の特性方程式と同じように、MA過程の特性方程式を解き、その根がすべて1より小さくなることを確認する方法がある。以下の式では、q次のMA過程の特性方程式を表している。

$$
1 + \theta_1 z + \theta_2 z^2 + \cdots + \theta_q z^q = 0
$$



今回は結構長めになったので、ARMA過程の性質を確認したところで終わろうと思う。次はARMA過程の推定の部分を見てみる。



この記事が気に入ったらサポートをしてみませんか?