今日機械学習関連で学んだこと[日記]
・損失関数 = 「ニュートラルネットワークから出力されたAIが出した回答」と「教師データ」の誤差を算出する多変数関数です。
・そしてその損失関数が、最小になるようパラメタ(重みとバイアス)を調整することを「ニュートラルネットワークの学習」と呼んでいます。
・勾配法 関数を最小にするような変数の値を求めます。
勾配法は、傾きが0となる地点xが関数の最小、最大を与るという考えに基づいた手法です。
関数f(x)を最小にするxの値だったり、関数g(x, y, z)を最小にするx, y, zの値の組み合わせを求めます。
1. 初期探索地点xを定める。
2. ある地点xでの傾きを求める。
3. 傾きと学習率を元に次の探索地点x`(xダッシュ)を求める。これを更新と呼ぶ。
4. 2〜3の更新を傾きが0となるxが見つかるまで繰り返す。