涵蓋 Transformer、LLM、注意力機制等核心 AI 術語的基礎模擬測驗,共 10 題。
AI 基礎概念模擬測驗
共 10 題 時間限制 20 分鐘 及格分數 70 分
題目預覽
Transformer 架構的核心運算機制為何?
- A. 卷積運算(Convolution)
- B. 自注意力機制(Self-Attention) ✓ 正確答案
- C. 循環運算(Recurrence)
- D. 池化運算(Pooling)
解析:
Transformer 的核心是自注意力機制(Self-Attention),它讓模型能同時關注輸入序列中所有位置的資訊,捨棄了 RNN 的循環運算和 CNN 的卷積運算。
下列哪項是 Transformer 相較於 RNN 的主要優勢?
- A. 記憶體使用量較低
- B. 支援平行運算,訓練效率更高 ✓ 正確答案
- C. 模型參數量較少
- D. 不需要 GPU 就能訓練
解析:
Transformer 的自注意力機制可以平行處理整個序列,不像 RNN 必須逐步處理。這使得 Transformer 在 GPU 上的訓練效率遠高於 RNN。
LLM 的「幻覺」(Hallucination)現象指的是什麼?
- A. 模型訓練時的過擬合現象
- B. 模型產出看似合理但實際錯誤的內容 ✓ 正確答案
- C. 模型無法理解使用者的提問
- D. 模型運算速度過慢的問題
解析:
LLM 的幻覺是指模型生成的內容在表面上看起來流暢合理,但實際上包含事實性錯誤或虛構的資訊。這是因為 LLM 本質上是基於機率生成文字,而非真正「理解」事實。
還有 7 題,前往互動版完整作答