# 知識蒸餾（Knowledge Distillation）

讓小模型（學生）學習大模型（老師）的輸出行為，獲得接近大模型的能力但體積更小

## 完整說明

讓小模型（學生）學習大模型（老師）的輸出行為，獲得接近大模型的能力但體積更小

---

來源：https://aiterms.tw/terms/knowledge-distillation
快查頁：https://aiterms.tw/terms/knowledge-distillation
深度解說：https://aiterms.tw/learning/what-is-knowledge-distillation