[備忘録] 事前学習動画 脱ブラックボックス講座 中級: 自走できるAI人材になるための6ヶ月長期コース

自走できるAI人材になるための6ヶ月長期コースには事前学習の動画が9時間ついております。今回は中級編 (4.5h) についての備忘録です。

なお、この中級編はUdemy のこの講座と同じ内容とのことです。

備忘録

セクション1: はじめに

セクション2: イントロダクション

セクション3: 線形代数

3-1: スカラー・ベクトル・行列
3-2: 行列の演算
足し算、引き算、掛け算(行列積)
3-3: 練習問題
3-4: サイズ感
3-5: 転置 (Transpose)
3-6: 単位行列・逆行列 (Inverse matrix)
3-7: ベクトルで微分
「The Matrix Cookbook」2.4章

セクション4: 重回帰分析

4-1: Step1「モデル」を決める
4-2: Step2「評価関数」を決める
4-3: Step3 評価関数を「最小化」する - 式変形を行う
4-4: Step3 評価関数を「最小化」する - 最適なパラメータを求める -
4-5: よくある質問
逆行列の条件
多重共線性(マルチコ)

セクション5: 重回帰分析の実装

5-1: 行列演算の基礎(Numpy)
ベクトルの定義、行列の定義、転置、逆行列、行列積
5-2: よくある間違い(Numpy)
5-3: 演習問題
5-4: Scikit-learnで実装

セクション6: 実データで演習

6-1: データの読み込み
6-2: 分布の確認

sns.distplot(df['x4'], bins = 50)
# bins = グラフの横幅のこと

相関係数

# 相関係数 (correlation) の算出
# 1 強い相関、-1 負の相関
# 絶対値が1 に近い方が良い精度が出そう
# 相関係数が低いものでディープラーニングしている会社もいる

6-3: 入力変数と出力変数の切り分け
6-4: モデル構築と検証
6-5: 訓練データと検証データ
shift + tab で関数の使い方がpop upされる

6-6: 予測値の計算とモデルの保存・読み込み
6-7: パラメータの確認

セクション7: 統計

7-1: 主な統計量
平均、分散、標準偏差
7-2: 練習問題
7-3: 正規分布と3σ法
平均値ベース: 3σ法
中央値ベース: Hample 判別法 (Identifier)
7-4: スケーリング
Standart Scaling データの標準化

セクション8: 外れ値・スケーリングを考慮した重回帰分析

8-1: データの読込・分布の確認
8-2: 外れ値除去(3σ法) - 1変数に適用 -外れ値除去(3σ法) - 1変数に適用 -
8-3: 外れ値除去(3σ法) - 全変数に適用 -

対処法
外れ値は取り除く
外れ値を平均もしくは中央値で埋める
主成分分析等を使って、潜在変数に変換した後に3σ方を適用 ← 高度

8-4: モデル構築
8-5: スケーリングとパラメータの確認

セクション9: ボーナスレクチャー

ビジネス活用(9: 現場で機械学習を導入できる人材とは?)

セクション10: ボーナスレクチャー

AI人材としてプロフェッショナルになるための教育とは?

いいなと思ったら応援しよう!