某企業計畫應用BERT(Bidirectional Encoder Representations from Transformers)模型分析大量顧客意見,以強化客服自動回覆系統。在BERT的預訓練過程中,「遮罩語言模型(Masked Language Model, MLM)」的主要訓練策略為何?

iPAS 考題解析

某企業計畫應用BERT(Bidirectional Encoder Representations from Transformers)模型分析大量顧客意見,以強化客服自動回覆系統。在BERT的預訓練過程中,「遮罩語言模型(Masked Language Model, MLM)」的主要訓練策略為何?

  • A. 依序遮罩句尾詞語,讓模型從左到右逐步生成完整句子
  • B. 隨機遮罩部分詞語,並讓模型根據雙向上下文(Bidirectional Context)預測被遮罩的詞 ✓ 正確答案
  • C. 透過對抗訓練(Adversarial Training)生成語意相似的擾動樣本以提升泛化性
  • D. 以未遮罩的詞為條件,使用解碼器(Decoder)結構重建整句內容

詳細解析

BERT的MLM策略隨機遮罩約15%的詞,讓模型同時利用左右雙向的上下文來預測被遮罩詞,從而學習到深度雙向語言表徵。這與GPT等單向模型的訓練方式本質不同。

出題年份:114 難度:★★☆