5.8 モデルの解釈性(SHAP、LIME、Grad-CAM、XAI)

G検定

ディープラーニングは高性能ですが、「なぜその予測をしたのか」 が分かりにくい「ブラックボックス問題」を抱えています。
これに対処するのが モデルの解釈性(Interpretability) を高める技術、すなわち XAI(Explainable AI) です。


XAI(Explainable AI)

定義

  • AIの判断過程を人間に理解できる形で説明可能にするアプローチ。

重要性

  • 医療・金融・法務など説明責任が求められる分野で必須。
  • バイアスや不公平性の検出にも役立つ。

👉 試験ポイント:「XAIはブラックボックス問題を解決するために必要」。


SHAP(SHapley Additive exPlanations)

特徴

  • ゲーム理論(Shapley値)に基づき、各特徴量の貢献度を定量化。
  • 「どの特徴量が予測にどれだけ寄与したか」を公平に説明できる。

応用

  • 信用スコアの説明(なぜ融資が却下されたか)
  • 医療診断の根拠提示

👉 試験頻出:「SHAPは特徴量ごとの寄与度を公平に計算する」。


LIME(Local Interpretable Model-agnostic Explanations)

特徴

  • 任意のモデルを局所的に近似することで予測根拠を説明。
  • 入力データの周囲に擬似データを生成し、その出力をシンプルなモデルで近似。

利点

  • モデル非依存(ブラックボックスでも利用可能)。

応用

  • テキスト分類(どの単語が予測に影響したかを可視化)。
  • 画像認識(どの領域が分類結果に寄与したかを示す)。

👉 試験ポイント:「LIMEは局所的に単純モデルで近似し、予測を説明する」。


Grad-CAM(Gradient-weighted Class Activation Mapping)

特徴

  • CNNの分類タスクで、どの領域が分類に寄与したかをヒートマップで可視化
  • 勾配情報を利用して特徴マップを強調。

応用

  • 医療画像診断(腫瘍がどの領域にあるかを示す)。
  • 自動運転(車の検出根拠を可視化)。

👉 試験頻出:「Grad-CAMは画像認識において重要領域を可視化する」。


まとめ

  • XAI:ブラックボックス問題を解決するための枠組み。
  • SHAP:特徴量ごとの寄与度をShapley値に基づき算出。
  • LIME:局所的に単純モデルで近似して説明。
  • Grad-CAM:画像認識で重要領域を可視化。

出題傾向

  • 「XAIが重要視される理由は?」=説明責任、バイアス検出
  • 「SHAPの特徴は?」=特徴量ごとの寄与度を公平に算出
  • 「LIMEの特徴は?」=モデル非依存、局所近似
  • 「Grad-CAMの特徴は?」=CNNの分類根拠をヒートマップ表示

練習問題(例題)

問題:次のうち、画像認識で「分類に寄与した領域」をヒートマップで示す手法はどれか?

  1. SHAP
  2. LIME
  3. Grad-CAM
  4. PCA

👉 正解:3

タイトルとURLをコピーしました