# 交叉熵損失（Cross-entropy）

交叉熵損失是一種衡量兩個機率分佈之間差異的損失函數，常用於分類任務中評估模型預測結果與真實標籤的差距。

## 完整說明

交叉熵損失（Cross-entropy loss），又稱對數損失（Log Loss），是一種用於衡量兩個機率分佈之間差異的損失函數。在機器學習中，尤其是在分類問題中，它被廣泛用於評估模型預測的機率分佈與真實標籤的機率分佈之間的差距。交叉熵越小，表示模型的預測結果越接近真實情況。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/cross-entropy
快查頁：https://aiterms.tw/terms/cross-entropy
深度解說：https://aiterms.tw/learning/what-is-cross-entropy