見出し画像

XAIの勉強とメモ

これを読むわけよ。今日中に。約2時間で完了♪
これくらいの速度が生成AI時代の方法。(ポイントだけ知れば良い)

通常、機械学習は「どうしてYes、Noなの?」が説明できない。
その判断の理由を説明しようというものだ。
そういえば、SONYのPredictOneにはこの機能が付いてたな…
(ブースの方の説明方法が悪いんだよ)


①LIME

結論:凄く良いと思ってたけど欠点が多そうだ。
・モンテカルロ法のイメージ(局所的に)
・位相の概念
・近傍では非線形であろうと構わないので、線型回帰で判断する
・テーブルデータ、画像、テキストのどれでも使用可能
・簡単だが、ランダム性がある
・ハイパーパラメーターの調整が必要
 (この問題はこれで解決すればいいか)


②SHAP

結論:面白い
・シャープレイ値(あの、シャープレイ値ね)

おお、つまりだ。
n人提携交渉問題の終わった実績値があれば、そこ利得行列とかを考えなくても教師ありデータとして見做せば帰納的にゲーム理論を再構築出来るわけだ!!これは別の意味で使えるなぁ。


③Permutation Importance

結論:シンプル XAIとして使うならこれか
・これはSONYのPredictionOneに搭載してた機能。
・モデルに依存しない。
・特徴量の寄与度を計算する。
・大域的にランダム計算。
・scikit-learnにも関数が搭載されている。


④Partial Dependence Plot

結論:特徴量が多い場合は面倒くさそう
・グラフで表示
・入出力値の変化が、結果に与える影響を計算する。


⑤Tree Surrogate

結論:運用は難しそう
・決定木を作っていく
・モデルに依存しない反面、モデル自体の再構築は保証されない。


⑥CAM/Grad-CAM

結論:CNN?
・分からん


⑦Integrated Gradients

結論:NN?
・分からん


⑧Attention

結論:RNN?
・分からん



いいなと思ったら応援しよう!