什麼是 知識蒸餾(Knowledge Distillation)?
讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小
類比:像師傅帶徒弟——徒弟不需要讀完師傅讀過的所有書,跟著師傅學精華就好延伸學習
想看 知識蒸餾 的完整影片教學?前往 美第奇 AI 學院
讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小
類比:像師傅帶徒弟——徒弟不需要讀完師傅讀過的所有書,跟著師傅學精華就好延伸學習
想看 知識蒸餾 的完整影片教學?前往 美第奇 AI 學院