# 梯度消失（Vanishing Gradient）

梯度消失是指在深度學習模型訓練中，梯度在反向傳播時逐漸縮小至接近於零，導致淺層網路權重難以更新，模型學習停滯。

## 完整說明

梯度消失是指在深度神經網路的訓練過程中，由於反向傳播算法的特性，梯度在經過多層網路後變得非常小，甚至接近於零。這使得淺層網路的權重難以得到有效更新，導致模型無法學習到有效的特徵，最終影響模型的性能。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/vanishing-gradient
快查頁：https://aiterms.tw/terms/vanishing-gradient
深度解說：https://aiterms.tw/learning/what-is-vanishing-gradient