AITerms.tw 收錄了 102 個結構化的 AI 術語定義,每個術語包含精準定義、iPAS 考試出題分析、常見問題和 Markdown 版本供 AI 引擎讀取。

AI 術語詞典

ACID (ACID (Atomicity, Consistency, Isolation, Durability))

資料庫交易的四大保證:原子性(全做全不做)、一致性、隔離性、持久性

AI 代理 (AI Agent)

能自主規劃、執行任務、使用工具的 AI 系統,不只是回答問題而是能實際行動

AI 幻覺 (Hallucination)

LLM 自信地產生看似合理但實際上不正確或虛構的內容

B Testing (A)

把使用者隨機分兩組,一組用舊版(A)一組用新版(B),比較哪個效果更好

BERT (Bidirectional Encoder Representations from Transformers)

Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意

Continuous Deployment (Continuous Integration)

CI 每次提交自動建置+測試,CD 通過後自動部署到生產環境。確保每個變更都安全

F1 分數 (F1 Score)

Precision 和 Recall 的調和平均數 = 2PR/(P+R),兼顧「找得準」和「找得全」

K 均值分群 (K-Means Clustering)

指定 K 個群集,反覆「分配點到最近中心→更新中心位置」直到收斂

K 近鄰 (K-Nearest Neighbors)

找最近的 K 個鄰居投票決定分類,簡單但對距離度量和 K 值敏感

L1 正則化 (L1 Regularization (Lasso))

懲罰權重的絕對值之和,傾向讓不重要的權重直接歸零,自動做特徵選擇

L2 正則化 (L2 Regularization (Ridge))

懲罰權重的平方和,讓所有權重都縮小但不歸零,使模型更平滑

LIME (Local Interpretable Model-agnostic Explanations)

對單一預測結果做局部解釋,用簡單模型近似黑箱模型在該點附近的行為

No Code (Low Code)

Low Code 和 No Code 的統稱,降低開發門檻讓非工程師也能建立數位工具

ROC 曲線 (Receiver Operating Characteristic)

以 FPR 為 X 軸、TPR 為 Y 軸畫出的曲線,展示模型在不同分類門檻下的權衡

ROC 曲線下面積 (Area Under the ROC Curve)

衡量分類模型在不同閾值下的綜合表現,AUC=1 完美,AUC=0.5 等於隨機猜

S 型函數 (Sigmoid Function)

把任意數值壓縮到 0~1 之間,常用在二元分類的輸出層表示機率

SHAP (SHapley Additive exPlanations)

基於博弈論的 Shapley 值,計算每個特徵對預測結果的貢獻度

Softmax 函數 (Softmax Function)

把一組數值轉換成機率分布(加總為 1),常用在多元分類的輸出層

TF-IDF (Term Frequency-Inverse Document Frequency)

衡量一個詞對文件的重要性:在這篇文件中出現多(TF 高)但在其他文件中少見(IDF 高)的詞最重要

Z 分數 (Z-score)

衡量一個值偏離平均值幾個標準差,Z = (x - μ) / σ。常用於標準化和異常值檢測

上下文窗口 (Context Window)

LLM 一次能「看到」和處理的最大 Token 數量,超過就會忘記前面的內容

主成分分析 (Principal Component Analysis)

找到資料中變異最大的方向,把高維資料投影到低維空間,保留最多資訊

交並比 (Intersection over Union)

預測框和真實框的重疊面積除以聯集面積,衡量物件偵測的定位準確度

交叉驗證 (Cross-Validation)

把資料分成K份,輪流用其中一份當驗證集,確保模型評估不是碰運氣

人工智慧 (Artificial Intelligence)

讓電腦模擬人類思考和決策的技術總稱,包含 ML、DL 等子領域

低程式碼 (Low Code)

只需要寫少量程式碼就能開發的平台,適合有基本技術能力的人快速開發

修正線性單元 (Rectified Linear Unit)

最常用的激活函數:正值不變,負值變 0。計算快且有效避免梯度消失

偏差 (Bias)

模型對某些群體的系統性不公平,可能來自訓練資料、標註或演算法本身

公平性 (Fairness)

確保 AI 系統對不同群體(性別、種族、年齡等)的決策不帶有不合理的歧視

公民開發者 (Citizen Developer)

非專業工程師但能用 LCNC 平台開發應用的業務人員

分詞 (Tokenization)

把連續的文本切分成一個個的詞或子詞單位,是 NLP 的第一步

判定係數 (R-squared)

模型解釋了多少比例的目標變數變異,R²=1 是完美,R²=0 等於猜平均值

卷積神經網路 (Convolutional Neural Network)

專門處理圖像的神經網路,用小窗口(卷積核)掃過圖片提取局部特徵,參數共享大幅減少計算量

召回率 (Recall)

「所有真正的正例中,模型找到了多少」= TP/(TP+FN)

可解釋人工智慧 (Explainable AI)

讓 AI 的決策過程透明可理解的技術和方法,而非黑箱

同態加密 (Homomorphic Encryption)

讓資料在加密狀態下就能進行計算,結果解密後和明文計算一致

命名實體辨識 (Named Entity Recognition)

從文本中找出人名、地名、組織名等特定類型的詞彙

均方根誤差 (Root Mean Squared Error)

MSE 開根號,恢復到和原始資料相同的單位,更容易解讀

均方誤差 (Mean Squared Error)

預測值和真實值差距的平方平均,對大誤差懲罰更重

大型語言模型 (Large Language Model)

用大量文字訓練的超大 Transformer 模型,能理解和生成自然語言

學習率 (Learning Rate)

每一步走多遠的超參數。太大會跳過最佳解,太小收斂太慢

密度分群 (Density-Based Spatial Clustering)

基於密度的分群,不需要指定群數,能找到任意形狀的群集,自動識別噪訊點

少樣本學習 (Few-shot Learning)

只給模型少數幾個範例就讓它學會新任務,不需要大量訓練資料

嵌入表示 (Embedding)

把離散的類別(如詞語、ID)轉換成連續的稠密向量,讓模型能做數學運算

差分隱私 (Differential Privacy)

在查詢結果中加入精確控制的隨機噪音,讓攻擊者無法判斷特定個人是否在資料集中

強化學習 (Reinforcement Learning)

透過和環境互動,做對了加分做錯了扣分,自己摸索出最佳策略

循環神經網路 (Recurrent Neural Network)

有「記憶」的神經網路,能處理序列資料,前一步的輸出會回饋影響下一步

微調 (Fine-tuning)

在預訓練模型的基礎上,用特定領域的小資料集繼續訓練,讓模型適應新任務

思維鏈 (Chain-of-Thought)

讓 LLM 一步步推理而不是直接給答案,提升複雜問題的正確率

批次大小 (Batch Size)

每次更新參數前看幾筆資料。大 batch 穩定但慢,小 batch 快但抖

批次正規化 (Batch Normalization)

在每層的輸入做標準化,穩定訓練過程,讓網路能用更大的學習率

提前終止 (Early Stopping)

監控驗證損失,當驗證損失不再下降(開始過擬合)時提前停止訓練

提示工程 (Prompt Engineering)

設計和優化給 AI 模型的指令(Prompt),讓它產生更好的回應

擴散模型 (Diffusion Model)

先把圖片加噪音直到變成隨機雜訊,再學習逐步去噪還原。生成時從純噪音開始反向去噪

支持向量機 (Support Vector Machine)

找到最佳的超平面把不同類別分開,讓兩側邊界(margin)最大化

梯度下降 (Gradient Descent)

沿著損失函數的梯度(斜率)方向走,一步步找到損失最小的點

極端梯度提升 (eXtreme Gradient Boosting)

GBDT 的進化版,加入正則化防過擬合,支援缺失值和並行化,是比賽和業界的常勝軍

標籤編碼 (Label Encoding)

把類別轉成整數(紅=0, 藍=1, 綠=2),簡單但可能引入虛假的順序關係

模型登錄庫 (Model Registry)

集中管理所有模型版本、訓練紀錄、部署狀態的系統,像模型的戶籍系統

機器學習 (Machine Learning)

讓電腦從資料中自動學習規律的 AI 子領域,不需要人類一條條寫規則

機器學習維運 (Machine Learning Operations)

把 DevOps 的實踐應用到 ML 系統上,自動化模型的訓練、部署、監控全生命週期

檢索增強生成 (Retrieval-Augmented Generation)

先從知識庫檢索相關文件,再把檢索結果連同問題一起給 LLM 生成答案

欠擬合 (Underfitting)

模型太簡單,連訓練資料中的基本模式都學不會。訓練和測試都差

欠擬合 (Underfitting)

模型太簡單,連訓練資料都學不好,訓練和測試都表現差

歐盟通用資料保護規範 (General Data Protection Regulation)

歐盟的個人資料保護法規,賦予個人對其資料的控制權,違規罰款極高

正則化 (Regularization)

在損失函數中加入懲罰項限制模型複雜度,防止模型太貪心地擬合每個細節

決策樹 (Decision Tree)

用一連串的 if-else 條件把資料分裂成純淨的子集,可解釋性強

注意力機制 (Attention Mechanism)

讓模型在處理每個位置時,能「注意」到輸入中其他重要位置的資訊

深度學習 (Deep Learning)

使用多層神經網路的 ML 方法,能自動學習複雜的特徵階層

準確率 (Accuracy)

所有預測中正確的比例 = (TP+TN)/(全部)。類別不平衡時容易被多數類主導

無程式碼 (No Code)

完全不需要寫程式碼就能建立應用程式或自動化流程的平台

特徵工程 (Feature Engineering)

從原始資料中創建、選擇和轉換特徵,讓模型更容易學到有用的模式

獨熱編碼 (One-hot Encoding)

把類別轉成只有 0 和 1 的向量:每個類別一個維度,是就標 1 其他都 0

生成對抗網路 (Generative Adversarial Network)

兩個網路對抗:生成器負責造假,鑑別器負責辨真假,互相進步直到生成的東西以假亂真

生成式預訓練轉換器 (Generative Pre-trained Transformer)

OpenAI 的自回歸語言模型,一個字接一個字生成文本,只使用 Decoder 架構

監督式學習 (Supervised Learning)

有標準答案的學習:給模型輸入和對應的正確標籤,讓它學會從輸入預測標籤

知識蒸餾 (Knowledge Distillation)

讓小模型(學生)學習大模型(老師)的輸出行為,獲得接近大模型的能力但體積更小

符記 (Token)

LLM 處理文字的最小單位,可能是一個字、一個詞或一個子詞

精確率 (Precision)

「模型說是正例的裡面,有多少真的是正例」= TP/(TP+FP)

編碼器 (Encoder)

把輸入資料壓縮成一個固定長度的向量表示(特徵表示),提取核心資訊

聯邦學習 (Federated Learning)

多方合作訓練模型但資料不出門——每方在本地訓練,只分享模型更新,不分享原始資料

自注意力 (Self-Attention)

讓序列中的每個元素都能和其他所有元素計算關聯度,捕捉內部依賴關係

自然語言處理 (Natural Language Processing)

讓電腦理解、分析和生成人類語言的技術領域

萃取、轉換、載入 (Extract, Transform, Load)

資料工程三步驟:從源頭抽資料(E)→清洗轉換格式(T)→載入目標資料庫(L)

解碼器 (Decoder)

把編碼器產生的向量表示還原或轉換成目標輸出(如翻譯文字、生成圖片)

訓練輪次 (Epoch)

模型看完全部訓練資料一遍算一個 Epoch。通常需要多個 Epoch 才能學好

詞向量 (Word2Vec)

把每個詞轉成一個數字向量,語意相近的詞在向量空間中距離也近

變分自編碼器 (Variational Autoencoder)

把資料壓縮到一個機率分佈的潛在空間,再從這個空間中取樣生成新資料

資料倉儲 (Data Warehouse)

經過整理的結構化資料儲存庫,針對查詢和分析優化

資料湖 (Data Lake)

存放各種格式原始資料的大型儲存池,不管結構化或非結構化通通先存起來

資料漂移 (Data Drift)

上線後的資料分布和訓練時不同,導致模型效能下降

超參數 (Hyperparameter)

訓練前人為設定的參數(如學習率、層數),不是模型自己學的,需要調校

轉換器架構 (Transformer)

完全基於 Attention 機制的架構,不用 RNN 的循環結構,能平行處理整個序列

過擬合 (Overfitting)

模型把訓練資料的噪音和細節都記住了,面對新資料就表現差。訓練好但測試差

過擬合 (Overfitting)

模型在訓練資料上表現超好但面對新資料就不行——記住了題目而非學會規律

遷移學習 (Transfer Learning)

把在大資料集上學到的知識搬到小資料集的新任務上,不用從零開始訓練

長短期記憶網路 (Long Short-Term Memory)

RNN 的進化版,用門控機制(遺忘門、輸入門、輸出門)解決長序列的記憶遺忘問題

隨機丟棄 (Dropout)

訓練時隨機「關閉」一部分神經元,強迫網路不過度依賴任何單一路徑

隨機森林 (Random Forest)

建立多棵決策樹,每棵用隨機子集資料和特徵訓練,最後投票決定結果

零信任架構 (Zero Trust Architecture)

不預設信任任何使用者或裝置,每次存取都需要驗證身分和權限

零樣本學習 (Zero-shot Learning)

不給任何範例就讓模型處理從未見過的任務,完全靠預訓練的知識推理

非監督式學習 (Unsupervised Learning)

沒有標準答案的學習:只有輸入沒有標籤,讓模型自己找出資料中的結構和模式