在梯度下降(Gradient Descent)優化過程中,陷入「局部最小值(Local Minimum)」的問題,下列哪種方法最能有效緩解?

iPAS 考題解析

在梯度下降(Gradient Descent)優化過程中,陷入「局部最小值(Local Minimum)」的問題,下列哪種方法最能有效緩解?

  • A. 降低學習率(Learning Rate)以確保穩定收斂
  • B. 增加正則化強度以平滑損失函數
  • C. 使用動量(Momentum)或 Adam 等自適應優化器 ✓ 正確答案
  • D. 減少批次大小(Batch Size)以增加梯度噪音

詳細解析

動量(Momentum)和 Adam 等自適應優化器能在梯度方向上累積速度,幫助跳出局部最小值或鞍點。Adam 結合動量與自適應學習率,在深度學習中廣泛應用。降低學習率反而更容易困在局部最小值。

出題年份:114 難度:★★☆