# 模型反演攻擊（Model Inversion Attack）

模型反演攻擊是一種試圖從機器學習模型中恢復訓練數據或敏感資訊的攻擊方式，藉此洩漏隱私。

## 完整說明

模型反演攻擊是一種隱私攻擊，旨在從已訓練的機器學習模型中推斷出關於訓練數據的敏感信息。攻擊者利用模型的輸入-輸出關係，試圖重建或推斷出用於訓練模型的原始數據的某些屬性或特徵，從而洩漏隱私。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/model-inversion-attack
快查頁：https://aiterms.tw/terms/model-inversion-attack
深度解說：https://aiterms.tw/learning/what-is-model-inversion-attack