在深度學習中,ReLU(Rectified Linear Unit)激活函數相比 Sigmoid 函數的主要優勢為何?
iPAS 考題解析
在深度學習中,ReLU(Rectified Linear Unit)激活函數相比 Sigmoid 函數的主要優勢為何?
- A. ReLU 的輸出值域在 (0, 1) 之間,適合輸出機率
- B. ReLU 是平滑可微函數,梯度計算更穩定
- C. ReLU 能處理負值輸入,Sigmoid 不能
- D. 對正值輸入梯度恆為 1,不存在梯度消失問題,且計算效率更高 ✓ 正確答案
詳細解析
ReLU 對正值輸入的梯度恆為 1,不存在 Sigmoid 的梯度飽和問題(梯度消失),使深層網路的訓練更有效。計算上只是取 max(0, x),比 Sigmoid 的指數運算快得多。缺點是負值輸入的「死亡 ReLU」問題,但整體優勢使其成為隱藏層的默認選擇。
出題年份:114 難度:★★☆