什麼是 BERT(Bidirectional Encoder Representations from Transformers)?
Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意
類比:像填字遊戲高手——遮住一個字,看前後文就能猜出被遮的是什麼延伸學習
想看 BERT 的完整影片教學?前往 美第奇 AI 學院
Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意
類比:像填字遊戲高手——遮住一個字,看前後文就能猜出被遮的是什麼延伸學習
想看 BERT 的完整影片教學?前往 美第奇 AI 學院