# 對抗性攻擊（Adversarial Attack）

對抗性攻擊是指通過對輸入數據進行微小且不易察覺的修改，使AI模型產生錯誤輸出的攻擊方式，用於測試模型的魯棒性。

## 完整說明

對抗性攻擊是一種針對AI模型的攻擊方式，通過對輸入數據進行微小且不易察覺的修改，使AI模型產生錯誤的輸出。這種攻擊方式能夠揭示AI模型的脆弱性，並用於測試模型的魯棒性。常見應用包括圖像識別、語音辨識和自然語言處理等領域。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/adversarial-attack
快查頁：https://aiterms.tw/terms/adversarial-attack
深度解說：https://aiterms.tw/learning/what-is-adversarial-attack