# 生成式預訓練模型（GPT）

GPT是一種基於Transformer架構的大型語言模型，透過預訓練學習大量文本資料，用於生成文本、翻譯語言、回答問題等。

## 完整說明

GPT (Generative Pre-trained Transformer) 是一種基於 Transformer 架構的大型語言模型，用於生成文本。它透過在大量未標記的文本資料上進行預訓練，學習語言的模式和結構，能夠生成連貫、有意義且多樣化的文本。常見應用包括文本生成、語言翻譯、問答系統和程式碼生成。

## 常見問題

### undefined



### undefined



### undefined



---

來源：https://aiterms.tw/terms/gpt
快查頁：https://aiterms.tw/terms/gpt
深度解說：https://aiterms.tw/learning/what-is-gpt