# 安全護欄（Guardrails）

AI安全護欄是用於限制AI系統行為，確保其符合預期規範和倫理標準的機制，防止產生有害或不當的輸出。

## 完整說明

AI安全護欄是指在AI系統中設置的一系列規則、限制和監控機制，旨在確保AI模型的行為符合預期，避免產生有害、不當或違反倫理的輸出。這些護欄可以應用於模型的輸入、輸出和內部運作，以提高AI系統的安全性、可靠性和可信度。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/guardrails
快查頁：https://aiterms.tw/terms/guardrails
深度解說：https://aiterms.tw/learning/what-is-guardrails