在進行大型語言模型(LLM)企業專屬知識的 Fine-tuning 時,若內部 GPU 運算資源與記憶體嚴重受限,下列哪一種參數高效微調(PEFT, Parameter Efficient Fine-Tuning)技術最能在維持模型效能的前提下,顯著降低需更新的參數數量?

iPAS 考題解析

在進行大型語言模型(LLM)企業專屬知識的 Fine-tuning 時,若內部 GPU 運算資源與記憶體嚴重受限,下列哪一種參數高效微調(PEFT, Parameter Efficient Fine-Tuning)技術最能在維持模型效能的前提下,顯著降低需更新的參數數量?

  • A. 知識蒸餾(Knowledge Distillation)
  • B. 提示詞工程(Prompt Engineering)
  • C. 梯度凍結(Gradient Freezing)
  • D. 低秩適配(Low-Rank Adaptation) ✓ 正確答案

詳細解析

LoRA(Low-Rank Adaptation)是 PEFT 技術的代表,透過在原始權重旁插入低秩矩陣來微調,大幅減少需更新的參數量,同時維持模型效能,特別適合 GPU 資源受限的場景。

出題年份:115 難度:★★☆