在可解釋 AI(Explainable AI, XAI)的分類架構中,LIME(Local Interpretable Model-agnostic Explanations)屬於哪一類解釋技術?
iPAS 考題解析
在可解釋 AI(Explainable AI, XAI)的分類架構中,LIME(Local Interpretable Model-agnostic Explanations)屬於哪一類解釋技術?
- A. 內建可解釋模型(Intrinsic Interpretability):模型本身具有透明的決策結構
- B. 對話式解釋系統(Conversational AI Explainer):透過互動對話提供模型解釋
- C. 後處理模型解釋(post-hoc):對已訓練模型提供外部解釋 ✓ 正確答案
- D. 代理模型技術(Surrogate Model):訓練另一個簡單模型來完全取代原黑盒模型進行推論
詳細解析
LIME 是一種後處理(post-hoc)解釋技術,它不改變原始模型,而是在模型訓練完成後,透過局部近似的方式對已訓練模型的預測結果提供解釋。它與模型本身的結構無關(model-agnostic)。
出題年份:115 難度:★★☆