「ゼロから作るディープラーニング」を動画でまとめている人がいたので紹介します。
ゼロから作るディープラーニングという本が昔はやったが、それをYoutubeで解説している神動画を見つけたので紹介。スライドとコードで両方解説しているようだ。
Deep Learning 第1回:まずは環境構築だ!
Pythonの実行環境と各種ライブラリの説明をしている。ただ、これは以前紹介したGoogle Colaboratoryで用意できそう。
この動画で学ぶこと
・環境構築の方法
・numpyの基礎
Deep Learning 第2回:パーセプトロンを実装しよう
以下の内容を学ぶ。
パーセプトロン
ニューロンモデル
AND回路
OR回路
XAND回路
XOR回路
スライドもついている。Github上で。
Deep Learning 第3回:ニューラルネットワーク その1 実装準備編
この動画で学ぶこと
・多層パーセプトロン
・活性化関数
・ステップ関数
・シグモイド関数
・ReLU関数
・行列計算
Deep Learning 第4回:ニューラルネットワーク その2 実装編
この動画で学ぶこと
・恒等関数:入力と同じ出力を返す関数
・ソフトマックス関数:出力を確率で表せる関数
・MNIST: 画像認識のデータセット
・Picle
Deep Learning 第5回:ニューラルネットワークの学習機能を実装
この動画で学ぶこと
・損失関数
・交差エントロピー誤差
・勾配法
・学習率
Deep Learning 第6回:誤差逆伝播を利用して学習処理を早くする
この動画で学ぶこと
・誤差逆伝播法(ごさぎゃくでんぱほう)
・ノード:掛け算の結果を出力する
・順伝播:左から右へ計算する
・逆伝播:合計値から逆に計算する
・計算グラフ
・偏微分
・シグモイドレイヤ
・ReLUレイヤ
Deep Learning 第7回:誤差逆伝播を用いてニューラルネットワークを実装
この動画で学ぶこと
・Affineレイヤ
・ミニバッジ版Affineレイヤ
・2層ニューラルネットワークを実装
・ReLU関数
・Softmax関数
・Softmax with Lossレイヤ
・順伝播
・逆伝播
・勾配確認
・逆誤差伝播の実装
Deep Learning 第8回:機械学習機能を実装したので、ここまでのまとめ
この動画で学ぶこと
・今までの復習内容
Deep Learning 第9回:パラメータの自動最適化
この動画で学ぶこと
・確率的勾配降下法(SGD):損失関数の値を微分して、最適に近づける。
・Momentum(モーメンタム)
・AdaGrad:学習が進むにつれて学習係数を小さくする方法
・重みの初期値の最適化
・Xavier(ザビエル)の初期値
・ガウス分布
・Heの初期値(ReLUを利用)
Deep Learning 第10回:パラメータの自動最適化(過学習編)
この動画で学ぶこと
・過学習
・Batch Normalization:各層でのアクティベーション分布を正規化によって適度な広がりを持つようにする
・ハイパーパラメーターの検証
・正則化:過学習の抑制
・Weight Decay: 大きな重みにペナルティを与える方法
・Dropout:ニューロンをランダムで削除する方法
・ハイパーパラメーター検証
・エポック
Deep Learning 第11回:畳み込みニューラルネットワーク
この動画で学ぶこと
・CNN:画像認識や音声認識で使われやすい
・Comvolution レイヤ
・Poolingレイヤ
・パディング
いいなと思ったら応援しよう!
サポートでいただいたお金はFanzaの動画を購入するために利用されます。