什麼是 BERT(Bidirectional Encoder Representations from Transformers)?

Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意

類比:像填字遊戲高手——遮住一個字,看前後文就能猜出被遮的是什麼

← 回到 BERT 快查頁

延伸學習

想看 BERT 的完整影片教學?前往 美第奇 AI 學院