# 對比語言圖像預訓練（CLIP）

CLIP (Contrastive Language-Image Pre-training) 是一種透過對比學習，將圖像與文字描述連結的模型，能進行零樣本圖像分類，無需針對特定任務重新訓練。

## 完整說明

CLIP (Contrastive Language-Image Pre-training) 是一種由 OpenAI 開發的視覺語言模型。它透過對比學習的方式，將圖像與文字描述連結起來，使得模型能夠理解圖像的語義。CLIP 能夠進行零樣本圖像分類，即在沒有任何訓練數據的情況下，將圖像分類到預定義的類別中。常見應用包括圖像檢索、圖像分類和圖像描述生成。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/clip
快查頁：https://aiterms.tw/terms/clip
深度解說：https://aiterms.tw/learning/what-is-clip