# AITerms.tw - AI 術語詞典 > 台灣第一個結構化的 AI 術語詞典,涵蓋 5 個 AI 術語定義、 > 10 道 iPAS 模擬題,以及完整考試趨勢分析。 > 每個術語頁提供 Markdown 版本供直接讀取。 本站同時提供完整內容展平檔:https://aiterms.tw/llms-full.txt ## 核心術語(依重要度排序) - [Transformer(Transformer)](/terms/transformer.md): Transformer 是一種基於自注意力機制(Self-Attention)的深度學習架構,能平行處理序列資料,是 GPT、BERT 等大型語言模型的核心基礎。 - [大型語言模型(Large Language Model (LLM))](/terms/large-language-model.md): 大型語言模型(LLM)是透過海量文本資料訓練的深度學習模型,具備理解與生成自然語言的能力,參數量通常達數十億至數兆規模。 - [注意力機制(Attention Mechanism)](/terms/attention-mechanism.md): 注意力機制是一種讓模型在處理序列資料時,自動聚焦於輸入中最相關部分的計算方法,是 Transformer 架構的核心運算單元。 - [微調(Fine-tuning)](/terms/fine-tuning.md): 微調是在預訓練模型的基礎上,使用特定領域或任務的資料進行額外訓練,使模型在目標任務上達到更好表現的技術。 - [檢索增強生成(Retrieval-Augmented Generation (RAG))](/terms/retrieval-augmented-generation.md): RAG 是一種結合資訊檢索與文本生成的技術框架,讓大型語言模型能即時查詢外部知識庫,產出更準確、可溯源的回答。 ## 深度解說 - [什麼是 Transformer?](/learning/what-is-transformer): 深入了解 Transformer 的運作原理與應用場景 - [什麼是 大型語言模型?](/learning/what-is-large-language-model): 深入了解 大型語言模型 的運作原理與應用場景 - [什麼是 注意力機制?](/learning/what-is-attention-mechanism): 深入了解 注意力機制 的運作原理與應用場景 - [什麼是 微調?](/learning/what-is-fine-tuning): 深入了解 微調 的運作原理與應用場景 - [什麼是 檢索增強生成?](/learning/what-is-retrieval-augmented-generation): 深入了解 檢索增強生成 的運作原理與應用場景 ## iPAS 備考 - [iPAS AI 應用規劃師考試攻略](/ipas/guide/ipas-exam-strategy): 完整的 iPAS AI 應用規劃師備考策略,涵蓋考試重點、準備方向和應試技巧。 ## 模擬測驗 - [AI 基礎概念模擬測驗](/ipas/quiz/quiz-1): 涵蓋 Transformer、LLM、注意力機制等核心 AI 術語的基礎模擬測驗,共 10 題。 ## 關於本站 AITerms.tw 由林思翰(Hans Lin)建立。Hans 為 Group.G 文化科技 AI 導演、 實踐大學兼任客座助理教授、AIGC 藝創聯盟(50,000+ 成員)創辦人, 具十年以上 AI 與數位內容產業經驗。