G検定の内容を見つけたので是非勉強してほしい!
G検定とは・・・。
JDLA Deep Learning for GENERAL(JDLAディープラーニングフォージェネラル)は、一般社団法人日本ディープラーニング協会(JDLA)が実施するAIに関する資格試験である。特にディープラーニングの基礎知識を有し、適切な活用方針を決定して事業応用する能力を持つ人材の輩出を目的として、年3回実施されている。ディープラーニングの技術が日進月歩する技術であることから検定・資格実施毎に実施年号を付与している。一般にG検定(ジーけんてい)またはG検(ジーけん)と呼ばれる。G検定のGはジェネラルの意味である。
2020年3月までの試験に関しては、オンライン受験(自宅受験)・多肢選択式・2時間で225問程度の問題が出題されており、試験中にテキストの閲覧やインターネットを通じた検索を行うことは禁止されていない。
2020年7月に実施された第2回G検定(JDLA Deep Learning for GENERAL 2020#2)のみ、受験料が半額であった[1]。第2回G検定で、受験者が1万人を突破した
ref
さてさてG検定の内容を勉強しましょう!
最適化とは?
ここで言う最適化(Optimization)とは、複数の選択肢の中から最も良い解を見つける事を意味します。
最も理解しやすい最適化問題の例としては、最小二乗法のような二乗誤差を最小にする問題が挙げられます。
下図は変数xを振って、誤差関数f(x)の値Lossを最小にする問題を表現しています。現在の位置から始めたとして、勾配を登る方向にxを動かすと誤差は大きくなってしまいますが、勾配を降下する方向にxを動かすと誤差が小さくなります。ここで、この下に凸の関数の最小値を最適解と呼びます。そして最適解を求めるために最小化(または最大化)する関数を目的関数と呼びます。
最小二乗法のような簡単な問題は「Pythonでカーブフィット!最小二乗法で直線近似する方法」で紹介したように数式的に解を求める事が可能です。
また、このような最小値を求める方法には「Pythonで1変数と2変数関数の勾配降下法を実装してみた」で紹介した勾配降下法という手法も有効です。
勾配降下法は学習率の設定がシビアであったり、最小値を求めるのに時間がかかったりするため、MomentumやAdaGrad、RMSProp…とその他様々な改良手法が開発されています。
…様々な手法がありますが、下図のように本当に最小である大域的最適解ではなく、局所最適解や停留点にトラップされるという問題は常に考えなければなりません。
多目的最適化
定式化
関数形がわからない場合、単一の目的関数の最小値を求めるだけでも難しい問題ですが、今回この記事で扱うのは複数の目的関数を同時に最適化する多目的最適化問題です。
一般に多目的最適化(Multiobjective Optimization)は、n個の設計変数xnで構成されたk個の目的関数fiを、m個の不等式制約条件vjの元で最小化(または最大化)する問題として次式で定式化されます。
fivj(x1,x2,…,xn)(i=1,2,…,k)(x1,x2,…,xn)≤0(j=1,2,…,m)
多目的最適化の例
多目的最適化問題の例として、下図のような多目的ナップザック問題が有名です。
ref
pic ref
https://biz-con.plus/science-gkentei/
*G検定についてニーズがあれば今後記事にしたいと思います。
宜しくお願いします。