StanとRでベイズ統計モデリングをPyMC Ver.5で写経~第7章「7.8 打ち切り」
第7章「回帰分析の悩みどころ」
書籍の著者 松浦健太郎 先生
この記事は、テキスト第7章「回帰分析の悩みどころ」の7.8節「打ち切り」の PyMC5写経 を取り扱います。
測定器が一定の下限しきい値よりも小さな値を測定しない場合を考えます。
下限しきい値に達するとそのしきい値の値で記録されるため、データに多くの「しきい値」を含んでいます。
はじめに
StanとRでベイズ統計モデリングの紹介
この記事は書籍「StanとRでベイズ統計モデリング」(共立出版、「テキスト」と呼びます)のベイズモデルを用いて、PyMC Ver.5で「実験的」に写経する翻訳的ドキュメンタリーです。
テキストは、2016年10月に発売され、ベイズモデリングのモデル式とプログラミングに関する丁寧な解説とモデリングの改善ポイントを網羅するチュートリアル「実践解説書」です。もちろん素晴らしいです!
「アヒル本」の愛称で多くのベイジアンに愛されてきた書籍です!
テキストに従ってStanとRで実践する予定でしたが、RのStan環境を整えることができませんでした(泣)
そこでこのシリーズは、テキストのベイズモデルをPyMC Ver.5に書き換えて実践します。
引用表記
この記事は、出典に記載の書籍に掲載された文章及びコードを引用し、適宜、掲載文章とコードを改変して書いています。
【出典】
「StanとRでベイズ統計モデリング」初版第13刷、著者 松浦健太郎、共立出版
記事中のイラストは、「かわいいフリー素材集いらすとや」さんのイラストをお借りしています。
ありがとうございます!
PyMC環境の準備
Anacondaを用いる環境構築とGoogle ColaboratoryでPyMCを動かす方法について、次の記事にまとめています。
「PyMCを動かすまでの準備」章をご覧ください。
7.8 打ち切り
インポート
### インポート
# 数値・確率計算
import pandas as pd
import numpy as np
# PyMC
import pymc as pm
import arviz as az
# 描画
import matplotlib.pyplot as plt
import seaborn as sns
plt.rcParams['font.family'] = 'Meiryo'
# ワーニング表示の抑制
import warnings
warnings.simplefilter('ignore')
データの読み込み
サンプルコードのデータを読み込みます。
### データの読み込み ◆データファイル7.1 data-protein.txt
# Y:血中のタンパク質の濃度、6回の測定 <25 は25未満の値
data = pd.read_csv('./data/data-protein.txt')
print('data.shape: ', data.shape)
display(data)
【実行結果】
データの前処理を行います。$${Y='<25'}$$を$${25}$$に変換します。
### データの前処理
# <25 を25 に置換
data['Y'][data['Y'] == '<25'] = 25
# データ型をfloatに変換
data['Y'] = data['Y'].astype(float)
display(data)
【実行結果】
要約統計量を算出します。
### 要約統計量の表示
data.describe().round(2)
【実行結果】
棒グラフで可視化します。
### 棒グラフの描画
# 25かどうかのフラグ
hue = data['Y'] != 25
# 棒グラフの描画
sns.barplot(data=data, x=data.index+1, y='Y', hue=hue, palette='Pastel1',
legend=None)
# y=25の水平線の描画
plt.axhline(25, color='tab:red', ls='--', alpha=0.5)
# 修飾
plt.xlabel('測定回')
plt.ylabel('濃度 $Y$')
plt.grid(lw=0.2);
【実行結果】
1回目と3回目が打ち切りされています。
モデルの構築
モデルの定義です。
pm.Censored() で下端打ち切りを表現し、pm.Normal.dist() で正規分布を表現します。
### モデルの定義 ◆モデル式7-7 model7-7.stan
with pm.Model() as model:
### データ関連定義
## coordの定義
model.add_coord('data', values=data.index, mutable=True)
## dataの定義
# 目的変数 Y
Y = pm.ConstantData('Y', value=data['Y'].values, dims='data')
### 事前分布
mu = pm.Uniform('mu',lower=0, upper=100)
sigma = pm.Uniform('sigma', lower=0, upper=20)
### 尤度関数
normal_dist = pm.Normal.dist(mu=mu, sigma=sigma)
obs = pm.Censored('obs', dist=normal_dist, lower=25, upper=None,
observed=Y, dims='data')
モデルの定義内容を見ます。
### モデルの表示
model
【実行結果】
### モデルの可視化
pm.model_to_graphviz(model)
【実行結果】
隠れミッキーがいます。
MCMCを実行します。
### 事後分布からのサンプリング 20秒
with model:
idata = pm.sample(draws=1000, tune=1000, chains=4, target_accept=0.9,
nuts_sampler='numpyro', random_seed=1234)
【実行結果】省略
Pythonで事後分布からのサンプリングデータの確認を行います。
Rhatの確認から。
テキストの収束条件は「chainを3以上にして$${\hat{R}<1.1}$$のとき」です。
### r_hat>1.1の確認
# 設定
idata_in = idata # idata名
threshold = 1.01 # しきい値
# しきい値を超えるR_hatの個数を表示
print((az.rhat(idata_in) > threshold).sum())
【実行結果】
収束条件を満たしています。
事後統計量を表示します。
### 推論データの要約統計情報の表示
var_names = ['mu', 'sigma']
pm.summary(idata, hdi_prob=0.95, var_names=var_names, round_to=3)
【実行結果】
トレースプロットを描画します。
### トレースプロットの表示
pm.plot_trace(idata, compact=True, var_names=var_names)
plt.tight_layout();
【実行結果】
パラメータの事後統計量の要約を算出します。
### パラメータの要約を確認
# mean,sd,2.5%,25%,50%,75%,97.5%パーセンタイル点をデータフレーム化する関数の定義
def make_stats_df(y):
probs = [2.5, 25, 50, 75, 97.5]
columns = ['mean', 'sd'] + [str(s) + '%' for s in probs]
quantiles = pd.DataFrame(np.percentile(y, probs, axis=0).T, index=y.columns)
tmp_df = pd.concat([y.mean(axis=0), y.std(axis=0), quantiles], axis=1)
tmp_df.columns=columns
return tmp_df
# 要約統計量の算出・表示
vars = ['mu', 'sigma']
param_samples = idata.posterior[vars].to_dataframe().reset_index(drop=True)
display(make_stats_df(param_samples).round(2))
【実行結果】
事後分布プロットを描画します。
### 事後分布プロットの描画
pm.plot_posterior(idata, hdi_prob=0.95, var_names=var_names, round_to=3,
figsize=(7, 3))
plt.tight_layout();
【実行結果】
フォレストプロットを描画します。
### フォレストプロットの描画
pm.plot_forest(idata, combined=True, hdi_prob=0.95, var_names=var_names,
figsize=(5, 3))
plt.axvline(0, color='tab:red', ls='--')
plt.grid(lw=0.3);
【実行結果】
事後予測サンプリングを実行して$${Y}$$の予測値を描画します。
### 事後予測サンプリングデータの作成
with model:
idata.extend(pm.sample_posterior_predictive(idata, random_seed=1234))
【実行結果】
### 事後予測プロットの描画
pm.plot_ppc(idata, num_pp_samples=10);
【実行結果】
なんだか不穏な図になりました。
$${Y}$$の観測値と予測値のプロットを描画します。
### Yの観測値と予測値のプロット
## 描画用データの作成 yPredの中央値と80%区間を算出
# MCMCサンプリングデータからyPredを取り出し
y_pred_samples = (idata.posterior_predictive.obs
.stack(sample=('chain', 'draw')).data)
# サンプリングデータの10%,50%,90%パーセンタイル点を算出してデータフレーム化
y_pred_df = pd.DataFrame(
np.quantile(y_pred_samples, q=[0.1, 0.5, 0.9], axis=1).T,
columns=['10%', 'median', '90%'])
y_pred_df = pd.concat([data, y_pred_df], axis=1)
# 中央値と10%点の差、90%点と中央値の差を算出: errorbarで利用
y_pred_df['err_lower'] = y_pred_df['median'] - y_pred_df['10%']
y_pred_df['err_upper'] = y_pred_df['90%'] - y_pred_df['median']
## 描画処理
# 描画領域の指定
plt.figure(figsize=(6, 6))
ax = plt.subplot()
# 描画(エラーバー付き散布図)
ax.errorbar(y_pred_df['Y'], y_pred_df['median'],
yerr=[y_pred_df['err_lower'], y_pred_df['err_upper']],
color='tab:blue', alpha=0.5, marker='o', ms=10, linestyle='none')
# 赤い対角線の描画
ax.plot([25, 45], [25, 45], color='red', ls='--')
# 修飾
ax.set(xlabel='Observed: $Y$の観測値', ylabel='Predicted: $Y$の予測値(中央値)',
title='$Y$ の観測値と予測値(中央値)のプロット\n80%区間, 通常スケール')
ax.grid(lw=0.5);
【実行結果】
うまく予測できていないようです(汗)
7.8 節は以上です。
シリーズの記事
次の記事
前の記事
目次
ブログの紹介
note で7つのシリーズ記事を書いています。
ぜひ覗いていってくださいね!
1.のんびり統計
統計検定2級の問題集を手がかりにして、確率・統計をざっくり掘り下げるブログです。
雑談感覚で大丈夫です。ぜひ覗いていってくださいね。
統計検定2級公式問題集CBT対応版に対応しています。
Python、EXCELのサンプルコードの配布もあります。
2.実験!たのしいベイズモデリング1&2をPyMC Ver.5で
書籍「たのしいベイズモデリング」・「たのしいベイズモデリング2」の心理学研究に用いられたベイズモデルを PyMC Ver.5で描いて分析します。
この書籍をはじめ、多くのベイズモデルは R言語+Stanで書かれています。
PyMCの可能性を探り出し、手軽にベイズモデリングを実践できるように努めます。
身近なテーマ、イメージしやすいテーマですので、ぜひぜひPyMCで動かして、一緒に楽しみましょう!
3.実験!岩波データサイエンス1のベイズモデリングをPyMC Ver.5で
書籍「実験!岩波データサイエンスvol.1」の4人のベイジアンによるベイズモデルを PyMC Ver.5で描いて分析します。
この書籍はベイズプログラミングのイロハをざっくりと学ぶことができる良書です。
楽しくPyMCモデルを動かして、ベイズと仲良しになれた気がします。
みなさんもぜひぜひPyMCで動かして、一緒に遊んで学びましょう!
4.楽しい写経 ベイズ・Python等
ベイズ、Python、その他の「書籍の写経活動」の成果をブログにします。
主にPythonへの翻訳に取り組んでいます。
写経に取り組むお仲間さんのサンプルコードになれば幸いです🍀
5.RとStanではじめる心理学のための時系列分析入門 を PythonとPyMC Ver.5 で
書籍「RとStanではじめる心理学のための時系列分析入門」の時系列分析をPythonとPyMC Ver.5 で実践します。
この書籍には時系列分析のテーマが盛りだくさん!
時系列分析の懐の深さを実感いたしました。
大好きなPythonで楽しく時系列分析を学びます。
6.データサイエンスっぽいことを綴る
統計、データ分析、AI、機械学習、Pythonのコラムを不定期に綴っています。
統計・データサイエンス書籍にまつわる記事が多いです。
「統計」「Python」「数学とPython」「R」のシリーズが生まれています。
7.Python機械学習プログラミング実践記
書籍「Python機械学習プログラミング PyTorch & scikit-learn編」を学んだときのさまざまな思いを記事にしました。
この書籍は、scikit-learnとPyTorchの教科書です。
よかったらぜひ、お試しくださいませ。
最後までお読みいただきまして、ありがとうございました。
この記事が気に入ったらサポートをしてみませんか?