# BERT（Bidirectional Encoder Representations from Transformers）

Google 的雙向語言模型，用 MLM（遮罩）和 NSP 預訓練，擅長理解文本語意

## 完整說明

Google 的雙向語言模型，用 MLM（遮罩）和 NSP 預訓練，擅長理解文本語意

---

來源：https://aiterms.tw/terms/bidirectional-encoder-representations-from-transformers
快查頁：https://aiterms.tw/terms/bidirectional-encoder-representations-from-transformers
深度解說：https://aiterms.tw/learning/what-is-bidirectional-encoder-representations-from-transformers