L11 深度拆解

L11 人工智慧基礎概論:四大主題攻克

按 L111/L112/L113/L114 分區域學習,針對最容易錯的地方深入說明

L111

10-12題

人工智慧概念

★ EU AI Act

L112

8-10題

資料處理與分析

特徵工程重點

L113

18-22題

機器學習概念

★ 最多題!必考重點

L114

10-12題

鑑別式 AI vs 生成式 AI

★ Flash Attention 新考點

L111 人工智慧概念(10-12 題)

L11101 AI 的定義與分類

AI 三個能力等級

等級定義例子
弱 AI特定任務ChatGPT、圍棋
強 AI人類水準的通用智慧尚未實現
超 AI超越人類智慧假設性

AI 三波發展史

  1. 1. 符號推理時代:規則-based,專家系統
  2. 2. 機器學習時代:從資料學習規則
  3. 3. 深度學習時代:大量資料+GPU+神經網路

L11102 AI 治理概念(115年超重點!)

EU AI Act 三層風險架構(最常考)

類型定義例子
🚫 禁止 不可接受的風險 職場/學校情緒辨識、社會評分、即時遠端生物辨識(警察除外)
⚠️ 高風險 需嚴格監管 醫療診斷、教育評分、就業篩選、信用評分、司法判決輔助
✓ 低風險 透明性要求 聊天機器人(需說明是 AI)、DeepFake(需標示)

⚠️ 陷阱:「禁止」≠「高風險」!情緒辨識在職場是「禁止」,不是「高風險」

台灣法規(115年新增)

  • 金管會生成式 AI 使用指引:金融業導入 AI 的規範
  • PDPA 個人資料保護法:資料蒐集、使用、處理的合規要求
  • Regulatory Sandbox:測試新技術的法規豁免沙盒
  • • 數位發展部《AI 基本法》草案概念

AI 責任歸屬(情境題常考)

  • • AI 造成損害 → 開發者 / 部署者 / 使用者各有責任
  • • 高風險 AI → 需進行事前合規評估
  • • 可解釋性需求 → 高風險決策不能是黑箱

L112 資料處理與分析概念(8-10 題)

大數據 5V 與資料類型

5V 特性

  • Volume(量):資料量極大
  • Velocity(速):產生速度快
  • Variety(多樣):結構/半/非結構化
  • Veracity(真實):資料品質問題
  • Value(價值):從資料萃取洞察

資料結構分類

  • • 結構化:表格(SQL 資料庫)
  • • 半結構化:JSON、XML、CSV
  • • 非結構化:圖片、影片、文字

特徵工程(容易混淆!)

Normalization vs Standardization

方法結果適用
Normalization[0, 1]有明確上下限時
Standardization均值0, 標準差1常態分佈假設下

特徵選擇 vs 特徵萃取

  • 選擇:從現有特徵中挑重要的(不改變特徵本身)
  • 萃取:建立新的特徵(如 PCA 降維)

L113 機器學習概念(18-22 題,最多!)

六種學習類型(必考!)

類型 資料要求 典型算法/例子 考試關鍵詞
監督式 有標籤 線性迴歸、SVM、決策樹 分類、迴歸、預測
非監督式 無標籤 K-means、PCA、DBSCAN 分群、降維、異常偵測
半監督式 少量標籤 + 大量無標籤 自訓練(Self-training) 標記成本高、資料稀缺
自監督式 ★ 無需人工標記 BERT、GPT 預訓練 ≠ 非監督式! 預測遮蔽詞/下一句
強化式 環境獎懲 Q-Learning、PPO 下棋、自動駕駛、機器手臂
遷移學習 預訓練模型 Fine-tuning、BERT 微調 少量資料解決新任務

🔴 官方勘誤:K-means 收斂條件

❌ 錯誤 B(群內距離最大化)
✅ 正確 A(群內距離最小化,群間距離最大化)

Bias-Variance Trade-off(模型評估核心)

過擬合(Overfitting)

  • • 訓練誤差低,測試誤差高
  • • High Variance,Low Bias
  • • 解決:正則化、Dropout、增加資料

欠擬合(Underfitting)

  • • 訓練和測試誤差都高
  • • High Bias,Low Variance
  • • 解決:增加模型複雜度、更多特徵

L114 鑑別式 AI 與生成式 AI(10-12 題)

生成模型架構比較(混考!)

模型 核心機制 特性 代表應用
VAE 編碼到連續 latent space → 解碼 可控生成、latent space 插值 風格轉換、藥物設計
GAN 生成器 vs 鑑別器對抗訓練 高品質生成,訓練不穩定 Deepfake、圖像生成
Diffusion 逐步加雜訊 → 逐步去雜訊 高品質、可控,推理慢 Stable Diffusion、DALL-E
Transformer Self-Attention,平行計算 長文脈依賴,需大量記憶體 GPT-4、BERT、翻譯

115年新增考點(Flash Attention / RLHF)

Flash Attention

  • • 問題:Transformer Self-Attention 的記憶體 I/O 瓶頸
  • • 解法:分塊計算,減少 HBM(高頻寬記憶體)讀寫次數
  • • 效果:速度更快,記憶體使用更少
  • • 考試關鍵詞:I/O 瓶頸、記憶體效率

RLHF(人類回饋強化學習)

  • • 目的:讓 LLM 的輸出符合人類價值觀
  • • 流程:SFT → Reward Model → PPO 強化學習
  • • 應用:ChatGPT、Claude 的對齊技術
  • • 考試關鍵詞:對齊、安全、人類偏好