知識蒸餾(Knowledge Distillation)

讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小

完整說明

讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小

延伸學習

深入了解 知識蒸餾 的完整運作原理

延伸學習

想看 知識蒸餾 的完整影片教學?前往 美第奇 AI 學院