Courseraで機械学習を勉強する:ロジスティク回帰とは
分類問題を、予測するうえで線形関数を用いる(線形回帰)のはうまくいかないことはすでに示されている。そこで登場するのが、
この式である。これはシグモイド関数、ロジスティク関数と呼ばれている。その形は、
このようになっており、縦軸がhの値、横軸がg(z)、ただしz=ΘTx。つまり、
上のようになる。これにより決定されるhの値は、y=1である確率がどの程度であるか、ということを示している。この関数を用いて、仮説を表現し、パラメータを調整していく。上の考え方をすれば、zが0以下であれば偽、0以上であれば真と判断する。
決定境界(Decision Boundary)
決定境界(Decision Boundary)について説明を行う。
このようなパラメータの仮説関数があったとする。Θは本来は3x1行列だが、エディタの関係で1x3の転置行列としている。この関数の値がどうなれば仮説が予測したい物事が真である、と判定するのであろうか。この判断基準に、シグモイド関数を用いると、z、つまりΘの式が0以上であれば、真、0より小さければ偽と判断できる。(Θの式はeの何乗かを示していることに注意)。これは-3 + x1 + x2 > 0 ならば真、というわけで、座標系で1本の直線として表現できる。この直線より上のデータであれば、推定が正しい(もしガンかどうかの判断をしているのなら、がんのあるパラメータをプロットした時、この線より上にプロットされれば、その腫瘍は悪性だと判断する)といえる。この直線のことを決定境界と呼ぶ。