知識蒸餾(Knowledge Distillation)
讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小
完整說明
讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小
延伸學習
延伸學習
想看 知識蒸餾 的完整影片教學?前往 美第奇 AI 學院
讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小
讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小
延伸學習
想看 知識蒸餾 的完整影片教學?前往 美第奇 AI 學院