# KL散度（KL Divergence）

KL散度（Kullback-Leibler Divergence）衡量兩個機率分佈的差異，數值越大代表分佈差異越大，常用於評估模型預測分佈與真實分佈的接近程度。

## 完整說明

KL散度（Kullback-Leibler Divergence），又稱相對熵，是一種衡量兩個機率分佈P和Q之間差異的非對稱度量。它量化了使用分佈Q來近似分佈P時所損失的信息量。KL散度永遠是非負的，且當P=Q時，KL散度為零。在機器學習中，常被用於評估模型預測的分佈與真實分佈的接近程度，是變分推斷和生成模型的重要工具。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/kl-divergence
快查頁：https://aiterms.tw/terms/kl-divergence
深度解說：https://aiterms.tw/learning/what-is-kl-divergence