# 後門攻擊（Backdoor Attack）

後門攻擊是一種針對機器學習模型的惡意攻擊，攻擊者在模型中植入後門，使其在特定觸發條件下產生預設的錯誤輸出。

## 完整說明

後門攻擊是一種針對機器學習模型的安全威脅。攻擊者會在模型訓練過程中，悄悄地植入惡意的觸發器或後門。當模型遇到這些觸發器時，即使輸入看似正常，模型也會產生攻擊者預先設定的錯誤輸出，從而達到攻擊目的。這種攻擊難以察覺，對AI系統的可靠性構成嚴重威脅。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/backdoor-attack
快查頁：https://aiterms.tw/terms/backdoor-attack
深度解說：https://aiterms.tw/learning/what-is-backdoor-attack