CNN 使用線性激活函數導致訓練停滯,應改用什麼?

iPAS 考題解析

CNN 使用線性激活函數導致訓練停滯,應改用什麼?

  • A. 增加卷積層
  • B. 灰階處理圖片
  • C. Sigmoid
  • D. ReLU 引入非線性 ✓ 正確答案

詳細解析

線性激活函數讓再多層的網路都等於一層線性變換,學不到複雜的非線性特徵。ReLU(x) = max(0, x) 引入非線性,計算簡單且避免梯度消失(Vanishing Gradient)。

難度:★★★