![見出し画像](https://assets.st-note.com/production/uploads/images/161270471/rectangle_large_type_2_32bd4d7f24f6f7985868f47f5a5b0136.png?width=1200)
Photo by
aicolumnwriter
XAIの勉強とメモ
これを読むわけよ。今日中に。約2時間で完了♪
これくらいの速度が生成AI時代の方法。(ポイントだけ知れば良い)
通常、機械学習は「どうしてYes、Noなの?」が説明できない。
その判断の理由を説明しようというものだ。
そういえば、SONYのPredictOneにはこの機能が付いてたな…
(ブースの方の説明方法が悪いんだよ)
①LIME
結論:凄く良いと思ってたけど欠点が多そうだ。
・モンテカルロ法のイメージ(局所的に)
・位相の概念
・近傍では非線形であろうと構わないので、線型回帰で判断する
・テーブルデータ、画像、テキストのどれでも使用可能
・簡単だが、ランダム性がある
・ハイパーパラメーターの調整が必要
(この問題はこれで解決すればいいか)
②SHAP
結論:面白い
・シャープレイ値(あの、シャープレイ値ね)
おお、つまりだ。
n人提携交渉問題の終わった実績値があれば、そこ利得行列とかを考えなくても教師ありデータとして見做せば帰納的にゲーム理論を再構築出来るわけだ!!これは別の意味で使えるなぁ。
③Permutation Importance
結論:シンプル XAIとして使うならこれか
・これはSONYのPredictionOneに搭載してた機能。
・モデルに依存しない。
・特徴量の寄与度を計算する。
・大域的にランダム計算。
・scikit-learnにも関数が搭載されている。
④Partial Dependence Plot
結論:特徴量が多い場合は面倒くさそう
・グラフで表示
・入出力値の変化が、結果に与える影響を計算する。
⑤Tree Surrogate
結論:運用は難しそう
・決定木を作っていく
・モデルに依存しない反面、モデル自体の再構築は保証されない。
⑥CAM/Grad-CAM
結論:CNN?
・分からん
⑦Integrated Gradients
結論:NN?
・分からん
⑧Attention
結論:RNN?
・分からん