CNN 使用線性激活函數導致訓練停滯,應改用什麼?
iPAS 考題解析
CNN 使用線性激活函數導致訓練停滯,應改用什麼?
- A. 增加卷積層
- B. 灰階處理圖片
- C. Sigmoid
- D. ReLU 引入非線性 ✓ 正確答案
詳細解析
線性激活函數讓再多層的網路都等於一層線性變換,學不到複雜的非線性特徵。ReLU(x) = max(0, x) 引入非線性,計算簡單且避免梯度消失(Vanishing Gradient)。
難度:★★★
CNN 使用線性激活函數導致訓練停滯,應改用什麼?
CNN 使用線性激活函數導致訓練停滯,應改用什麼?
線性激活函數讓再多層的網路都等於一層線性變換,學不到複雜的非線性特徵。ReLU(x) = max(0, x) 引入非線性,計算簡單且避免梯度消失(Vanishing Gradient)。