對非常長的輸入序列進行推理(Inference),Transformer模型推理的主要計算瓶頸通常是什麼?

iPAS 考題解析

對非常長的輸入序列進行推理(Inference),Transformer模型推理的主要計算瓶頸通常是什麼?

  • A. 模型輸出層產生文本的過程,因為每生成一個詞都必須重新訓練整個模型一次;
  • B. 詞嵌入(Embedding)查找操作,因為其時間複雜度隨詞彙表大小指數級增長;
  • C. Softmax函數的計算,因為對每個Token都需要執行繁重的運算;
  • D. 自注意力層的計算和其記憶體使用,因為注意力矩陣的大小隨序列長度呈平方級增長 ✓ 正確答案

詳細解析

Transformer 的自注意力(Self-Attention)計算複雜度為 O(n²),注意力矩陣隨序列長度平方級增長,是長序列推理的主要瓶頸。

難度:★★★