# 低秩適配（LoRA）

LoRA是一種參數高效的微調技術，透過學習低秩矩陣來適應預訓練模型，大幅減少訓練參數，降低計算成本。

## 完整說明

LoRA (Low-Rank Adaptation) 是一種參數高效的微調方法，它凍結了預訓練模型的所有原始參數，並引入少量的可訓練參數（低秩矩陣）。這些低秩矩陣與原始模型權重並行添加，在訓練過程中只更新這些新增的參數，從而大幅降低了計算資源需求，並能快速適應特定任務。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/lora
快查頁：https://aiterms.tw/terms/lora
深度解說：https://aiterms.tw/learning/what-is-lora