ディープラーニングG検定 第4章
−1
■教師あり学習
与えられたデータを元にパターン(出力)に
なるかを識別予測する
入力と出力のデータがセットになる
・過去の売上から将来の売上予測
・画像から識別
■回帰問題
連続値を予測する問題(売上予測)
■分類問題
離散値を予測する問題(画像から画像予測)
■教師なし学習
出力がない
教師=「出力データ」
・ECサイトの売上から顧客層があるか
・入力データの各項目の関係性
■強化学習
行動を学習する仕組み
目的とする報酬(スコア)を
最大化するための追求
・自動運転学習
・エージェント⇆環境
上記のフィードバックを繰り返す
出てきたスコアを学習する
■線形回帰
データの分布から直線を考えるもの
■ラッソ回帰、リッジ回帰
多次元で正則化項を加えたもの
■ロジスティック回帰
■シグモイド関数
・データを正、負の設定によって分類わけできる
・基本的には0.5を閾値として正例・負例に分ける
・迷惑メールの判定に用いる
■ソフトマックス関数
よりたくさんの分類を行う
■ランダムフォレスト
・決定木を用いる手法
教師あり学習の特徴量の分岐路
これをランダムに選び出すこと
■ブートストラップサンプリング
ランダムにデータの一部を抽出する
★それぞれの結果を用いて多数決を取る
■アンサンブル学習
複数のモデルで学習させること
■バギング
全部から一部のデータを用いて
複数のモデルを用いて学習する方法
■ブースティング
並列に作成するのがバギング
逐次的に作成するのがブースティング
=前のデータに重みを付けて学習する
■勾配ブースティング
学習にかかる時間が長くなる
■サポートベクターマシン(SVM)
異なるクラスデータ点との距離が
最大となるような境界線を求め分類する
■マージン最大化=距離の最大化
・扱うデータは高次元
・データが線形分類できない
■カーネル関数
データを高次元のに写像することの関数
■カーネルトリック
計算が複雑にならないように式変形すること
■ニューラルネットワーク
人間の脳の中のアルゴリズム
■単純パーセプトロン
単純なニューラルネットワークのモデル
入力層⇆重み⇆出力層
■活性化関数
どのように電気信号を伝播させるか調整する関数
■多層パーセプトロン
層を追加するモデル
■隠れ層
層と層の間
■誤差逆伝播法
予測値と値の誤差をネットワークに
フィードバックするアルゴリズム
■自己回帰モデル(ARモデル)
時間軸に沿った時系列データを用いる
・株価の日足の推移
・年度ごとの人口統計
・パケット通信量の推移
■時系列分析
これらを単純分析すること
■階層なしクラスタリング(教師なし学習)
■k-means法
データをk個のグループに分ける手法
元データからグループ構造を見つけまとめる
1、クラスタに振り分ける
2、各クラスタの重心を決める
3、各データの距離を求め、
距離が近い重心に対応するクラスタに振り分け直す
4、重心が変化しなくなるまで繰り返す
■階層ありクラスタリング(ウォード法)
・最も距離が近い2つを選び
1つのクラスタにまとめるを繰り返す手法
・樹形図(トーナメント似)に表せる
デンドログラム
■主成分分析(PCA)
・データの特徴量間の関係性を分析すること
・特徴量の数が多い場合に有効
■特異値分解、多次元尺度構成法、t-SNE
■協調フィルタリング
・レコメンデーションに用いられる
■コールドスタート問題
データが無い限り推薦できない
■コンテンツベースフィルタリング
・商品側に特徴量を付与して推薦すること
・コールドスタート問題を解決できる
■トピックモデル
・複数のクラスタにデータを分類する
■潜在的ディリクレ配分法
・ニュース記事を政治・経済・芸能・スポーツに分ける
その際記事に出てくる単語から確率を求める
■理論概念(強化学習)
状態・行動・報酬
■割引率
「今の100円と1年後の100円なら
今の100円のが価値がある」という経済倫理
■バンディットアルゴリズム
「活用」=現在知っている情報から報酬を最大化
「探索」=知らない情報を得る方法
このバランスをとるアルゴリズム
■ε-greedy方策、UCB方策
■マルコフ決定過程モデル
マルコフ性=現在の状態から将来の状態に遷移する
確率は、現在の状態のみに依存し、
過去には依存しない性質
逐次的なデータの更新が行われある
■価値関数
状態価値関数と行動価値関数
■方策勾配
・方策勾配法=パラメータを学習するアプローチ
・ロボット制御など選択肢が大量の場合有利
■REINFORCE
AlphaGoに活用
■Actor-Critic
行動器ー評価器が名前の由来