BERT(Bidirectional Encoder Representations from Transformers)

Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意

完整說明

Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意

延伸學習

深入了解 BERT 的完整運作原理

延伸學習

想看 BERT 的完整影片教學?前往 美第奇 AI 學院