ベイズ主義統計学
の本だけでは理解が及ばなかったので
歴史
事象間の関連性(因果関係を含む)を分析できるので、ECサイトにおけるレコメンドとかに使われている
また、可視化の方法としても有用(ベイジアンネットワーク)
ベイズ統計学とは、1763年にベイズが発表した確率の解釈(ベイズ主義)に基づいて理論化された統計学
現代に入り、以下の条件が揃ったことで、ベイズ推定(ベイズ定理に基づく確率の推定)が普及した
・ビッグデータが入手可能になった
・計算機の処理速度が上がった
・効率的で簡易的な計算方法が発明された(MCMC、変分推論)
ベイズ主義
頻度主義とベイズ主義の違い
①確率の解釈が異なる
・頻度主義:場合の数による定義(全事象の数え上げが必要)
・ベイズ主義:事象数を想定できなくても確率を考えることができる
②推定の手続が異なる
・頻度主義:値によりパラメータを推定する
・ベイズ主義:分布によりパラメータを推定する
③検定の手続が異なる
ベイズの定理
条件付き確率
ベイズ推定(概論)
ベイズ推定の考え方
得られたデータをもとに主観確率(確信度合い)を更新していく
①事前確率分布の設定:発生確率を知りたい事象に対して、主観で確率分布P(θ)を仮定する
②ベイズ更新(逐次推定):取得した観測値Dに基づき、尤度P(D|θ)とP(D)を算出し、ベイズ定理を使って事後確率P(θ|D) を算出する
③②で得られた事後確率を事前確率として使い、新たな観測値に基づいてベイズ更新を繰り返していく
ベイズ定理
P(θ|D) = P(θ) * P(D|θ) / P(D)
・事後確率P(θ|D): データDが得られた上でθが起こる確率(得られたデータに基づき更新される確率)
・事前確率P(θ): θが起こる確率(主観で仮定する確率)
・尤度P(D|θ): θが起きたときにデータDが得られる確率
・周辺尤度P(D): データDが得られる確率
ベイズ推定における事前確率設定時の留意点
・データ数が少ない場合、推定で得られる事後分布の形状は、設定した事前分布の形状に影響を受ける
・データ数が大量になると、どんな事前分布を選んでいたとしても、事後分布は同じになっていく
最尤推定(頻度主義)とベイズ推定(ベイズ主義)の違い
最尤推定/MAP推定/ベイズ推定の比較
・最尤推定:尤度P(X|θ)を最大化するようなθ(例えばコイントスで表が出る確率)=argmaxP(X|θ)を求める
・MAP推定(最大事後確率推定):事後確率P(θ|X)を最大化するようなθ=argmaxP(θ|X)を求める
・ベイズ推定:事後確率分布P(θ|X)を求める
最尤推定では事前確率を使わない
MAP推定とベイズ推定では事前確率を使う
共役分布
いくつかの尤度関数に対して、事前分布と事後分布の関数型が同一(共役分布)になることが判っている
事前分布として共役分布を利用できると、事後分布が計算しやすくなる(解析的に解けることが多くなる)
事後分布が解析的に算出できない場合は、近似的に求める(MCMC、変分推論など)
ベイジアンネットワーク
予測分布
88
ベイズ推定(各論)
モデルにベルヌーイ分布を使える場合
コイントスで表が出る確率pを推定する
推定の手順
①モデル(尤度と事前確率分布)を仮定する
②事後分布を算出する
③予測分布を算出する
モデルを仮定する
・尤度P(x|p):ベルヌーイ分布
・事前確率分布P(p):ベータ分布
ベイズ統計学における仮説検定
・頻度論における仮説検定:ネイマンピアソンの基本定理に基づく
・ベイズ主義における仮説検定
統計分析ツールjamovi
ベイズ統計モデリング
MCMC(マルコフ連鎖モンテカルロ法)
ベイジアンネットワーク
ベイズ機械学習
応用技術
参考情報
この記事が気に入ったらサポートをしてみませんか?