# 生成式預訓練轉換器（Generative Pre-trained Transformer）

OpenAI 的自回歸語言模型，一個字接一個字生成文本，只使用 Decoder 架構

## 完整說明

OpenAI 的自回歸語言模型，一個字接一個字生成文本，只使用 Decoder 架構

---

來源：https://aiterms.tw/terms/generative-pre-trained-transformer
快查頁：https://aiterms.tw/terms/generative-pre-trained-transformer
深度解說：https://aiterms.tw/learning/what-is-generative-pre-trained-transformer