# 層歸一化（Layer Normalization）

層歸一化是一種神經網路正規化技術，它在每個層級對所有神經元的激活值進行歸一化，以加速訓練並提高泛化能力。

## 完整說明

層歸一化 (Layer Normalization) 是一種在深度學習中使用的正規化技術，它在每個訓練批次中，對特定層的所有神經元的激活值進行歸一化。與批次歸一化 (Batch Normalization) 不同，層歸一化是在每個樣本的層級上進行計算，而不是在整個批次上。這使得它在小批次大小或序列資料等情況下更有效。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/layer-normalization
快查頁：https://aiterms.tw/terms/layer-normalization
深度解說：https://aiterms.tw/learning/what-is-layer-normalization