在可解釋 AI(Explainable AI, XAI)的分類架構中,LIME(Local Interpretable Model-agnostic Explanations)屬於哪一類解釋技術?

iPAS 考題解析

在可解釋 AI(Explainable AI, XAI)的分類架構中,LIME(Local Interpretable Model-agnostic Explanations)屬於哪一類解釋技術?

  • A. 內建可解釋模型(Intrinsic Interpretability):模型本身具有透明的決策結構
  • B. 對話式解釋系統(Conversational AI Explainer):透過互動對話提供模型解釋
  • C. 後處理模型解釋(post-hoc):對已訓練模型提供外部解釋 ✓ 正確答案
  • D. 代理模型技術(Surrogate Model):訓練另一個簡單模型來完全取代原黑盒模型進行推論

詳細解析

LIME 是一種後處理(post-hoc)解釋技術,它不改變原始模型,而是在模型訓練完成後,透過局部近似的方式對已訓練模型的預測結果提供解釋。它與模型本身的結構無關(model-agnostic)。

出題年份:115 難度:★★☆