# 對抗性穩健（Adversarial Robustness）

對抗性穩健是指機器學習模型在面對惡意設計的對抗樣本時，仍能維持其預測準確性的能力，抵抗攻擊。

## 完整說明

對抗性穩健性是指機器學習模型抵抗對抗性攻擊的能力。對抗性攻擊是指對輸入數據進行微小但精心設計的擾動，使模型產生錯誤的預測。一個具有良好對抗性穩健性的模型，即使在面對這些擾動時，也能保持其預測的準確性。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/adversarial-robustness
快查頁：https://aiterms.tw/terms/adversarial-robustness
深度解說：https://aiterms.tw/learning/what-is-adversarial-robustness