L11 深度拆解
L11 人工智慧基礎概論:四大主題攻克
按 L111/L112/L113/L114 分區域學習,針對最容易錯的地方深入說明
L111
10-12題
人工智慧概念
★ EU AI Act
L112
8-10題
資料處理與分析
特徵工程重點
L113
18-22題
機器學習概念
★ 最多題!必考重點
L114
10-12題
鑑別式 AI vs 生成式 AI
★ Flash Attention 新考點
L111 人工智慧概念(10-12 題)
L11101 AI 的定義與分類
AI 三個能力等級
| 等級 | 定義 | 例子 |
|---|---|---|
| 弱 AI | 特定任務 | ChatGPT、圍棋 |
| 強 AI | 人類水準的通用智慧 | 尚未實現 |
| 超 AI | 超越人類智慧 | 假設性 |
AI 三波發展史
- 1. 符號推理時代:規則-based,專家系統
- 2. 機器學習時代:從資料學習規則
- 3. 深度學習時代:大量資料+GPU+神經網路
L11102 AI 治理概念(115年超重點!)
EU AI Act 三層風險架構(最常考)
| 類型 | 定義 | 例子 |
|---|---|---|
| 🚫 禁止 | 不可接受的風險 | 職場/學校情緒辨識、社會評分、即時遠端生物辨識(警察除外) |
| ⚠️ 高風險 | 需嚴格監管 | 醫療診斷、教育評分、就業篩選、信用評分、司法判決輔助 |
| ✓ 低風險 | 透明性要求 | 聊天機器人(需說明是 AI)、DeepFake(需標示) |
⚠️ 陷阱:「禁止」≠「高風險」!情緒辨識在職場是「禁止」,不是「高風險」
台灣法規(115年新增)
- • 金管會生成式 AI 使用指引:金融業導入 AI 的規範
- • PDPA 個人資料保護法:資料蒐集、使用、處理的合規要求
- • Regulatory Sandbox:測試新技術的法規豁免沙盒
- • 數位發展部《AI 基本法》草案概念
AI 責任歸屬(情境題常考)
- • AI 造成損害 → 開發者 / 部署者 / 使用者各有責任
- • 高風險 AI → 需進行事前合規評估
- • 可解釋性需求 → 高風險決策不能是黑箱
L112 資料處理與分析概念(8-10 題)
大數據 5V 與資料類型
5V 特性
- • Volume(量):資料量極大
- • Velocity(速):產生速度快
- • Variety(多樣):結構/半/非結構化
- • Veracity(真實):資料品質問題
- • Value(價值):從資料萃取洞察
資料結構分類
- • 結構化:表格(SQL 資料庫)
- • 半結構化:JSON、XML、CSV
- • 非結構化:圖片、影片、文字
特徵工程(容易混淆!)
Normalization vs Standardization
| 方法 | 結果 | 適用 |
|---|---|---|
| Normalization | [0, 1] | 有明確上下限時 |
| Standardization | 均值0, 標準差1 | 常態分佈假設下 |
特徵選擇 vs 特徵萃取
- • 選擇:從現有特徵中挑重要的(不改變特徵本身)
- • 萃取:建立新的特徵(如 PCA 降維)
L113 機器學習概念(18-22 題,最多!)
六種學習類型(必考!)
| 類型 | 資料要求 | 典型算法/例子 | 考試關鍵詞 |
|---|---|---|---|
| 監督式 | 有標籤 | 線性迴歸、SVM、決策樹 | 分類、迴歸、預測 |
| 非監督式 | 無標籤 | K-means、PCA、DBSCAN | 分群、降維、異常偵測 |
| 半監督式 | 少量標籤 + 大量無標籤 | 自訓練(Self-training) | 標記成本高、資料稀缺 |
| 自監督式 ★ | 無需人工標記 | BERT、GPT 預訓練 | ≠ 非監督式! 預測遮蔽詞/下一句 |
| 強化式 | 環境獎懲 | Q-Learning、PPO | 下棋、自動駕駛、機器手臂 |
| 遷移學習 | 預訓練模型 | Fine-tuning、BERT 微調 | 少量資料解決新任務 |
🔴 官方勘誤:K-means 收斂條件
❌ 錯誤 B(群內距離最大化)
✅ 正確 A(群內距離最小化,群間距離最大化)
Bias-Variance Trade-off(模型評估核心)
過擬合(Overfitting)
- • 訓練誤差低,測試誤差高
- • High Variance,Low Bias
- • 解決:正則化、Dropout、增加資料
欠擬合(Underfitting)
- • 訓練和測試誤差都高
- • High Bias,Low Variance
- • 解決:增加模型複雜度、更多特徵
L114 鑑別式 AI 與生成式 AI(10-12 題)
生成模型架構比較(混考!)
| 模型 | 核心機制 | 特性 | 代表應用 |
|---|---|---|---|
| VAE | 編碼到連續 latent space → 解碼 | 可控生成、latent space 插值 | 風格轉換、藥物設計 |
| GAN | 生成器 vs 鑑別器對抗訓練 | 高品質生成,訓練不穩定 | Deepfake、圖像生成 |
| Diffusion | 逐步加雜訊 → 逐步去雜訊 | 高品質、可控,推理慢 | Stable Diffusion、DALL-E |
| Transformer | Self-Attention,平行計算 | 長文脈依賴,需大量記憶體 | GPT-4、BERT、翻譯 |
115年新增考點(Flash Attention / RLHF)
Flash Attention
- • 問題:Transformer Self-Attention 的記憶體 I/O 瓶頸
- • 解法:分塊計算,減少 HBM(高頻寬記憶體)讀寫次數
- • 效果:速度更快,記憶體使用更少
- • 考試關鍵詞:I/O 瓶頸、記憶體效率
RLHF(人類回饋強化學習)
- • 目的:讓 LLM 的輸出符合人類價值觀
- • 流程:SFT → Reward Model → PPO 強化學習
- • 應用:ChatGPT、Claude 的對齊技術
- • 考試關鍵詞:對齊、安全、人類偏好