最近の記事

【ラビットチャレンジ】深層学習day3レポート

◆Section1:再帰型ニューラルネット 【要点のまとめ】 ○RNN 時系列データに対応可能なニューラルネットワーク 時系列モデルを扱うには、初期の状態と過去の時間<t-1>の状態を保持し、そこから次の時間でのtを再帰的に求める再帰構造が必要になる。 時系列を遡れば遡るほど、勾配が消失していき、長い時系列の学習が困難なことが課題としてあげられる。 ○時系列データ 時間的順序を追って一定間隔ごとに観察され 相互に統計的依存関係??が認められるようなデータ 音声データ・

    • 【ラビットチャレンジ】深層学習day2レポート

      ◆Section1:勾配消失問題 【要点のまとめ】 誤差逆伝播法が下位層に進んで勾配がどんどん緩やかになっていくと、更新で下位層のパラメータはほとんど変わらず、訓練は最適値に収束しなくなる。 【確認テストなど自身の考察】 重みの初期値に0を設定すると、どのような問題が発生するか。 ↓ 初期値を0に設定すると、更新しても重みが均一のままになってしまい学習が進まない。 【参考図書・関連情報】 ○Xavierの初期値について 重みの初期値は精度に大きな影響がある。 SGDで

      • 【ラビットチャレンジ】深層学習day1レポート

        ◆Section1:入力層~中間層 【要点のまとめ】 値xを入力し、重みwとバイアスbを加えて総入力uを算出 u = w1x1 + w2x2 + w3x3 …+ b =Wx + b 例:犬、猫、ネズミを分類する場合、体長、体重、ひげの本数などの判断材料がx(入力層)にあたり、結果(確率)がu(出力層にあたる) <参考>ニューラルネットワークの全体像 <参考>入力層から中間層 【実装演習】 気づき、最初に「numpy」 書くの忘れがち、エラーになりがち ↓出力結果

        • 【ラビットチャレンジ】深層学習day4レポート

          ◆Section1:強化学習 【要点のまとめ】 ○強化学習 長期的な視点で、行動の結果として与えられる利益(報酬)をもとに、行動を決定する原理を改善していく仕組み 【確認テストなど自身の考察】 強化学習と通常の教師あり・教師なし学習との違いは何か ↓ 教師なし・あり学習ではデータに含まれるパターンの発見およびそのデータから予測することが目標、強化学習では、優れた方策を見つけることが目標 と目標が違う 強化学習は線で、教師ありなし学習は点をイメージした。 【参考図書・関

        • 【ラビットチャレンジ】深層学習day3レポート

        • 【ラビットチャレンジ】深層学習day2レポート

        • 【ラビットチャレンジ】深層学習day1レポート

        • 【ラビットチャレンジ】深層学習day4レポート

          【ラビットチャレンジ】機械学習レポート

          ◆機械学習について、人がプログラムするのは認識の仕方ではなく、学習の仕方である。 ◆Section1:線形回帰モデル 【要点のまとめ】 ある入力から出力を予測する 直線で予測→線形回帰 曲線で予測→非線形回帰 教師あり学習 慣例として予測値には<ハット>をつける x→線形回帰モデル→y ^ 説明変数が1次元の場合→単回帰モデル、直線 説明変数が多次元の場合→重回帰モデル、曲面 パラメータは最小二乗法※で推定 ※学習データの平均二乗誤差を最小とするパラメータを探索 【参

          【ラビットチャレンジ】機械学習レポート

          【ラビットチャレンジ】応用数学レポート

          一部「超AI入門講座」で学習した内容も含まれるが復習をかねてまとめていく。 ◆第1章 線形代数 ○スカラー +−×÷の演算が可能 ○ベクトル 「大きさ」「向き」をもつ ○行列 ベクトルの変換に使う ○単位行列 かけてもかけられても相手が変化しない「1」のような行列 ○逆行列 まるで逆数のような働きをする。 掃き出し法という求め方がある。 ○固有値と固有ベクトル ある行列Aに対して以下のような特殊なベクトルと右辺の係数 ○固有値分解 以下は具体例である ◆第2

          【ラビットチャレンジ】応用数学レポート