ポスト

解釈本。協力ゲーム理論のShapley値を機械学習の予測値の解釈に応用してSHAP値を定義。特徴量をプレイヤーとみなして、個体レベルでの予測への不参加を周辺確率による期待値で表現する。

メニューを開く

ましなり@mashinarism

みんなのコメント

メニューを開く

で、すべての参加順番について限界貢献度を計算して平均をとることでSHAP値とする。このように定義することで、個体レベルで、すべての特徴量のSHAP値の合計が着目個体の予測値と全体の予測値の期待値の差に一致するのだから、びっくり。ちゃんとSHapley値によるAdditiveなexPlanationになってる!

ましなり@mashinarism

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ