什麼是 知識蒸餾(Knowledge Distillation)?

讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小

類比:像師傅帶徒弟——徒弟不需要讀完師傅讀過的所有書,跟著師傅學精華就好

← 回到 知識蒸餾 快查頁

延伸學習

想看 知識蒸餾 的完整影片教學?前往 美第奇 AI 學院