在詞向量(Word Embedding)訓練方法中,GloVe(Global Vectors for Word Representation)與Word2Vec的主要差異為何?
iPAS 考題解析
在詞向量(Word Embedding)訓練方法中,GloVe(Global Vectors for Word Representation)與Word2Vec的主要差異為何?
- A. Word2Vec以詞頻權重訓練詞向量,而GloVe以隨機初始化向量進行學習
- B. Word2Vec以全局統計矩陣為基礎,而GloVe採用神經網路進行上下文預測
- C. Word2Vec為基於預測的模型,而GloVe為基於共現統計的模型 ✓ 正確答案
- D. Word2Vec僅能用於靜態文本語料,而GloVe可應用於即時語料更新
詳細解析
Word2Vec透過神經網路預測上下文(CBOW或Skip-gram),屬於基於預測的方法;GloVe則利用全局詞共現矩陣的統計資訊建立詞向量,屬於基於計數的方法。兩者的核心設計理念不同。
出題年份:114 難度:★★☆