見出し画像

G検定 4-3 14. 正則化

シラバス 14. 正則化 についてまとめていきます

目標
・正則化を導入する目的を説明できる
・代表的な正則化手法の特徴を説明できる
・獲得したいモデルの特性に応じて、適切な正則化手法を選択できる

キーワード
L0 正則化, L1 正則化, L2 正則化, 正則化, ドロップアウト, ラッソ回帰, リッジ回帰

G検定シラバスより
Feloで作成

  • 誤差関数を最小化することでモデル学習が行われ、適切な予測ができるようになる。

  • 過学習を防ぎます。

  • 対応策は総じて正則化と呼ぶ。

  • 誤差関数にペナルティ項を課すことで、モデルが過度に複雑にならないようにします。

正則化 (Regularization)

  • モデルが訓練データに過剰に適合してしまう現象(過学習)を防ぐための手法です。

  • モデルの複雑さを抑えることで、未知のデータに対する汎化能力を高めます。

L1正則化 (L1 Regularization)

  • 特徴の重みの絶対値の和をペナルティとして加えることで、モデルの重みの一部をゼロにします。

  • 不要なパラメータを削減できます

  • ノルム (Norm)に対応(ベクトル(数の集まり)の大きさを測るための指標)

  • ラッソ回帰 (Lasso Regression)

    • L1正則化を用いた線形回帰手法で、不必要な特徴を自動的にゼロにします。

    • モデル選択に役立ちます。

L2正則化 (L2 Regularization)

  • 特徴の重みの二乗和をペナルティとして加えることで、重みを小さくしながら全体的にスムーズなモデルを作ります。

  • 異常に大きな重みを抑制します。

  • ノルム (Norm)に対応

  • リッジ回帰 (Ridge Regression)

    • L2正則化を用いた線形回帰手法で、重みをスムーズに抑制しながら全ての特徴を考慮します。

L0正則化 (L0 Regularization)

  • 重みがゼロでないものの数にペナルティを加える手法です。

  • 計算コストが高く、直接的な実装は難しいため、実際には近似的な方法が使われます。

Elastic Net (エラスティックネット)

  • L1とL2正則化を両方活用することで、それぞれの利点を組み合わせた回帰手法です。

  • 特徴選択と全体的なスムージングを同時に行います。

ドロップアウト (Dropout)

ディープニューラルネットワーク(DNN)における正則化手法の一つで、過学習(overfitting)を防ぐために使用

モデルが学習中に特定のニューロンに過度に依存することを抑え、
多様性を向上させるのが目的

GPT4mini

基本的な仕組み

  1. トレーニング中:

    • 各エポック(訓練の1周)またはミニバッチで、一定確率 ppp(ドロップアウト率)の割合でニューロンを無効化します(ランダムに選択し、その出力を0にします)。

    • この操作により、ネットワークは常に異なるサブネットワーク(縮小されたネットワーク構造)で学習します。

  2. 推論(テスト)中:

    • ドロップアウトは適用されません。

    • 代わりに、全てのニューロンを使用し、それらの出力値を学習時のドロップアウト率に応じてスケーリング(通常は 1−p1-p1−p を掛ける)します。


メリット

  1. 過学習の抑制:

    • 特定のニューロンやパラメータに依存しにくくなり、モデルの汎化性能が向上します。

  2. アンサンブル学習:

    • ドロップアウトによるランダムなニューロンの無効化は、複数のモデルをランダムに作って学習することに相当し、実質的なアンサンブルモデルの効果を得られます。

  • ニューラルネットワークの特定のユニットを訓練の間にランダムに無効化することで、過学習を防ぐ手法です。

  • ランダムに複数の異なるサブモデルを同時に訓練、ニューロンを除外するような効果があります。


いいなと思ったら応援しよう!