# 對齊校準（Alignment）

對齊校準是指使AI模型，特別是大型語言模型，的行為與人類意圖、價值觀和倫理規範相符的過程，降低潛在風險。

## 完整說明

對齊校準是一種使AI模型，特別是大型語言模型（LLM），的行為與人類意圖、價值觀和倫理規範相符的過程。它用於確保模型輸出安全、有用且符合預期，能夠降低模型產生有害、不準確或不道德內容的風險。常見應用包括訓練模型避免產生偏見、提供可靠資訊以及遵循使用者指令。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/alignment
快查頁：https://aiterms.tw/terms/alignment
深度解說：https://aiterms.tw/learning/what-is-alignment