在梯度下降(Gradient Descent)優化過程中,陷入「局部最小值(Local Minimum)」的問題,下列哪種方法最能有效緩解?
iPAS 考題解析
在梯度下降(Gradient Descent)優化過程中,陷入「局部最小值(Local Minimum)」的問題,下列哪種方法最能有效緩解?
- A. 降低學習率(Learning Rate)以確保穩定收斂
- B. 增加正則化強度以平滑損失函數
- C. 使用動量(Momentum)或 Adam 等自適應優化器 ✓ 正確答案
- D. 減少批次大小(Batch Size)以增加梯度噪音
詳細解析
動量(Momentum)和 Adam 等自適應優化器能在梯度方向上累積速度,幫助跳出局部最小值或鞍點。Adam 結合動量與自適應學習率,在深度學習中廣泛應用。降低學習率反而更容易困在局部最小值。
出題年份:114 難度:★★☆