# AITerms.tw 完整術語庫 生成時間:2026-04-10T06:09:12.516Z 術語總數:477 --- # A/B測試(A/B Testing) A/B測試是一種隨機實驗方法,用於比較兩個版本的變數(A 和 B),以確定哪個版本表現更好。常用於優化使用者體驗和提升轉換率。 ## 完整說明 A/B測試是一種受控的隨機實驗方法,用於比較兩個或多個版本的變數(例如:網頁標題、按鈕顏色、模型版本),以確定哪個版本在預先定義的指標上表現更好。它能夠幫助數據科學家和產品經理做出基於數據的決策,常見應用包括優化網站設計、提升廣告點擊率、改善模型效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/a-b-testing 快查頁:https://aiterms.tw/terms/a-b-testing 深度解說:https://aiterms.tw/learning/what-is-a-b-testing --- # ACID(ACID (Atomicity, Consistency, Isolation, Durability)) ACID 指資料庫交易需具備原子性、一致性、隔離性與持久性,確保資料正確可靠 ## 完整說明 ACID 是一種資料庫事務處理的特性集合,用於保證資料庫事務的可靠性。原子性(Atomicity)確保事務中的所有操作要么全部完成,要么全部不完成;一致性(Consistency)確保事務執行前後資料庫的狀態保持一致;隔離性(Isolation)確保並發事務之間互不干擾;持久性(Durability)確保事務一旦提交,其結果將永久保存。 ## 常見問題 ### ACID中的隔離性具體是如何實現的? 隔離性通常通過鎖定機制或多版本並發控制(MVCC)來實現。鎖定機制會阻止其他交易訪問正在被修改的資料,而MVCC則允許讀取操作訪問舊版本的資料,從而避免讀寫衝突。選擇哪種方法取決於資料庫系統的設計和效能需求。 ### ACID和CAP理論有什麼關係? CAP理論指出,在分散式系統中,一致性(Consistency)、可用性(Availability)和分區容錯性(Partition Tolerance)這三個特性不能同時滿足。ACID 強調一致性,而 CAP 理論則需要在一致性和可用性之間做出權衡。因此,在分散式系統中,通常需要根據具體的應用場景選擇適合的資料庫架構,可能需要犧牲部分 ACID 特性,以換取更高的可用性和分區容錯性。 ### 放棄ACID特性一定會導致資料不一致嗎? 放棄ACID特性並不一定會導致資料不一致,但需要採取額外的措施來保證最終一致性。例如,可以使用基於事件的架構或補償事務來處理交易失敗的情況。此外,應用程式需要能夠容忍短暫的資料不一致性,並在最終一致性達到之前顯示適當的資訊。 --- 來源:https://aiterms.tw/terms/acid-atomicity-consistency-isolation-durability 快查頁:https://aiterms.tw/terms/acid-atomicity-consistency-isolation-durability 深度解說:https://aiterms.tw/learning/what-is-acid-atomicity-consistency-isolation-durability --- # AI 代理(AI Agent) AI 代理是能自主規劃、執行任務並運用工具的 AI 系統,它不只回答問題,更能實際採取行動 ## 完整說明 AI 代理是一種能夠感知環境、做出決策並採取行動以達成特定目標的實體。它通常基於機器學習或規則引擎,用於自動化任務、解決問題或與人類互動。在 iPAS 考試中,理解 AI 代理的組成部分(如感知器、決策器、執行器)及其應用場景至關重要。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - AI 導入評估方法與工具(佔 40%) - 成本效益分析(佔 35%) - AI 代理的應用判斷(佔 25%) ## 常見問題 ### AI 代理的訓練需要什麼樣的數據? AI 代理的訓練需要大量的標註數據,包括用戶指令、環境信息、行動結果等。數據的質量和數量直接影響 AI 代理的性能。此外,還需要收集用戶的反饋數據,以便不斷改進 AI 代理的行為策略。 ### AI 代理的安全性如何保障? 保障 AI 代理的安全性需要從多個方面入手,包括數據安全、模型安全、系統安全等。可以採用加密技術、訪問控制、入侵檢測等措施來保護 AI 代理免受攻擊。此外,還需要定期進行安全審計和漏洞掃描,及時修復安全漏洞。 ### AI 代理的未來發展趨勢是什麼? AI 代理的未來發展趨勢包括:更強的自主性、更好的通用性、更安全的可靠性。隨著技術的進步,AI 代理將能夠處理更複雜的任務,適應更廣泛的應用場景,並提供更安全可靠的服務。此外,AI 代理將會與其他技術,例如物聯網、區塊鏈等,更緊密地結合,創造出更多新的應用模式。 --- 來源:https://aiterms.tw/terms/ai-agent 快查頁:https://aiterms.tw/terms/ai-agent 深度解說:https://aiterms.tw/learning/what-is-ai-agent --- # AI 幻覺(Hallucination) AI 幻覺是大型語言模型產生自信但事實錯誤或無中生有內容的現象,是 LLM 部署的主要風險 ## 完整說明 AI 幻覺是指大型語言模型(LLM)產生不真實、不一致或與事實相悖的內容。這種現象可能源於訓練資料的偏差、模型對上下文的誤解或生成過程中的隨機性。在 iPAS 考試中,理解幻覺的成因和緩解方法,對於評估 LLM 的可靠性和安全性至關重要。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### AI 幻覺會對企業造成哪些潛在風險? AI 幻覺可能導致企業決策失誤,損害企業聲譽。例如,如果企業使用基於 AI 的客戶服務系統,系統產生幻覺,提供錯誤的產品資訊或服務承諾,可能會導致客戶不滿,甚至引發法律訴訟。因此,企業在使用 AI 技術時,必須充分考慮 AI 幻覺的風險,並採取相應的措施加以防範。 ### 有哪些技術可以用於檢測和減少 AI 幻覺? 目前,常用的 AI 幻覺檢測技術包括:知識庫比對、事實一致性檢查、交叉驗證等。減少 AI 幻覺的方法包括:提高訓練資料的品質和數量、使用更先進的模型架構和訓練方法、引入外部知識庫等。此外,還可以通過人工審核的方式,對 AI 生成的內容進行校對,及時發現和糾正錯誤資訊。 ### 如何評估一個 AI 系統的幻覺風險? 評估 AI 系統的幻覺風險,可以從以下幾個方面入手:一是評估訓練資料的品質和覆蓋範圍;二是評估模型的複雜度和泛化能力;三是評估系統的應用場景和對準確性的要求。此外,還可以通過對系統進行壓力測試,模擬各種極端情況,觀察系統是否會產生幻覺。根據評估結果,可以制定相應的風險管理策略。 --- 來源:https://aiterms.tw/terms/hallucination 快查頁:https://aiterms.tw/terms/hallucination 深度解說:https://aiterms.tw/learning/what-is-hallucination --- # AI偏見(Bias in AI) AI偏見是指AI系統在訓練或決策過程中,由於資料、演算法或人為因素,產生不公平或歧視性的結果。 ## 完整說明 AI偏見是一種系統性的誤差,在AI模型的訓練和部署過程中產生,導致模型對不同群體或個體產生不公平或歧視性的預測或決策。這種偏見可能源於訓練資料的偏差、演算法的設計缺陷,或人為的標籤錯誤。AI偏見會影響AI系統的公平性、可靠性和安全性,常見應用包括信用評分、招聘篩選和刑事司法。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bias-in-ai 快查頁:https://aiterms.tw/terms/bias-in-ai 深度解說:https://aiterms.tw/learning/what-is-bias-in-ai --- # AI沙盒(AI Sandbox) AI沙盒是一個受控的環境,用於測試和評估AI系統,而無需擔心對真實世界產生負面影響。它提供了一個安全可靠的實驗平台。 ## 完整說明 AI沙盒是一個模擬或受控的環境,旨在安全地測試、評估和驗證AI系統,而無需擔心對真實世界造成意外或有害的影響。它允許開發者和研究人員在一個隔離的環境中探索AI的潛在風險和益處,並進行迭代改進。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-sandbox 快查頁:https://aiterms.tw/terms/ai-sandbox 深度解說:https://aiterms.tw/learning/what-is-ai-sandbox --- # AI治理(AI Governance) AI治理是指建立一套框架和流程,以確保AI系統的開發和使用符合倫理、法律和社會價值觀。 ## 完整說明 AI治理是一種跨領域的方法,旨在指導和監管AI系統的開發、部署和使用,確保其符合倫理原則、法律法規和社會價值觀。它涉及制定政策、建立標準、實施監管措施,並促進利益相關者之間的合作,以應對AI帶來的風險和挑戰。AI治理的目標是促進AI的負責任發展,並最大限度地發揮其社會效益,常見應用包括風險評估、合規性檢查和倫理審查。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-governance 快查頁:https://aiterms.tw/terms/ai-governance 深度解說:https://aiterms.tw/learning/what-is-ai-governance --- # AI浮水印(AI Watermarking) AI浮水印是一種將資訊嵌入AI模型或其產生的內容中的技術,用於驗證來源、追蹤使用情況或防止未經授權的複製。 ## 完整說明 AI浮水印是一種將隱藏資訊嵌入到AI模型(例如神經網路)或其生成的內容(例如圖像、音訊或文字)中的技術。這些浮水印旨在不可見或難以察覺,但可以通過特定的解碼演算法提取出來,用於驗證內容的來源、追蹤其使用情況,或防止未經授權的複製和分發。AI浮水印在保護智慧財產權和確保AI系統的責任歸屬方面扮演著越來越重要的角色。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-watermarking 快查頁:https://aiterms.tw/terms/ai-watermarking 深度解說:https://aiterms.tw/learning/what-is-ai-watermarking --- # AI藥物發現(Drug Discovery AI) AI藥物發現利用人工智慧加速藥物研發流程,從靶點識別、候選藥物篩選、臨床試驗設計到藥物重定位,降低成本並縮短開發週期。 ## 完整說明 AI藥物發現是指利用人工智慧(AI)技術,加速和優化藥物研發的各個階段。這包括靶點識別、候選藥物篩選、先導化合物優化、臨床試驗設計和預測藥物的性質和毒性。AI可以處理大量的生物數據,從而降低藥物研發的成本和時間,並提高成功率。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/drug-discovery-ai 快查頁:https://aiterms.tw/terms/drug-discovery-ai 深度解說:https://aiterms.tw/learning/what-is-drug-discovery-ai --- # AI負載平衡(Load Balancing for AI) AI負載平衡將AI任務分散到多個計算資源,確保資源有效利用,避免單點過載,提升整體系統效能和穩定性。 ## 完整說明 AI負載平衡是一種將AI模型推論、訓練或其他計算密集型任務分散到多個伺服器或計算節點的技術。其目標是優化資源利用率、避免單點故障、提高系統吞吐量和降低延遲,確保AI應用程式的穩定性和效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/load-balancing-for-ai 快查頁:https://aiterms.tw/terms/load-balancing-for-ai 深度解說:https://aiterms.tw/learning/what-is-load-balancing-for-ai --- # API閘道(API Gateway) API閘道是位於應用程式前端的伺服器,作為單一入口點處理所有API請求,提供路由、驗證、授權、限流、監控等功能。 ## 完整說明 API閘道是一種位於應用程式前端的伺服器,它充當所有API請求的單一入口點。API閘道負責接收來自客戶端的請求,並將其路由到後端的不同服務。此外,API閘道還可以執行身份驗證、授權、限流、監控、日誌記錄等功能,以提高應用程式的安全性、可靠性和可擴展性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/api-gateway 快查頁:https://aiterms.tw/terms/api-gateway 深度解說:https://aiterms.tw/learning/what-is-api-gateway --- # AutoML遷移學習(Transfer Learning for AutoML) AutoML遷移學習利用預訓練模型知識,加速AutoML流程,減少訓練數據需求,提升模型泛化能力,並降低計算成本。 ## 完整說明 AutoML遷移學習結合遷移學習與AutoML技術,旨在利用已在大型數據集上預訓練的模型,加速AutoML流程。通過遷移學習,AutoML系統能夠更有效地搜索和優化模型,減少對大量標記數據的依賴,並提升模型在目標任務上的泛化能力,同時降低計算資源的需求。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/transfer-learning-for-automl 快查頁:https://aiterms.tw/terms/transfer-learning-for-automl 深度解說:https://aiterms.tw/learning/what-is-transfer-learning-for-automl --- # B Testing(A) B Testing 是一種實驗方法,將使用者隨機分成兩組,分別體驗新舊版本,藉此比較不同版本的效果優劣 ## 完整說明 A/B 測試是一種對照實驗方法,同時運行兩個版本的系統比較效果差異,在 AI 應用中常用於評估不同模型、推薦演算法或介面設計的實際表現。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### B Testing 的樣本數量要多少才足夠? 樣本數量取決於多個因素,包括基準轉換率、預期提升幅度、顯著水準和統計檢定力。可以使用線上樣本量計算器,輸入這些參數來估算所需的樣本數量。通常,樣本數量越大,結果越可靠。 ### 如何避免 B Testing 中的偏差? 避免偏差的關鍵是確保使用者分組的隨機性。可以使用隨機數生成器將使用者隨機分配到 A 組和 B 組。此外,還需要注意實驗期間的外部因素,例如季節性變化、促銷活動等,這些因素可能會影響實驗結果。 ### B Testing 的結果不顯著,代表什麼? B Testing 的結果不顯著,代表在目前的樣本數量下,沒有足夠的證據表明 A 組和 B 組之間存在顯著差異。這並不一定代表兩個版本的效果相同,可能只是因為樣本數量不足,或者差異太小,無法被檢測到。可以考慮增加樣本數量或重新設計實驗。 --- 來源:https://aiterms.tw/terms/a 快查頁:https://aiterms.tw/terms/a 深度解說:https://aiterms.tw/learning/what-is-a --- # BERT(Bidirectional Encoder Representations from Transformers) Google 的雙向語言模型,用 MLM(遮罩)和 NSP 預訓練,擅長理解文本語意 ## 完整說明 BERT(Bidirectional Encoder Representations from Transformers)是 Google 開發的預訓練語言模型,透過雙向注意力機制理解上下文語義,廣泛用於文本分類、問答系統和命名實體辨識等 NLP 任務。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### BERT 的計算成本很高,有哪些方法可以降低成本? 可以考慮使用 BERT 的輕量化版本,例如 DistilBERT 或 TinyBERT。這些模型在保持較高準確率的同時,大幅降低了計算成本。另外,可以使用模型剪枝、量化等技術來壓縮模型大小,從而降低計算需求。 ### BERT 在處理中文文本時需要注意什麼? 中文文本需要進行分詞處理,才能作為 BERT 的輸入。可以使用 Jieba 等中文分詞工具。此外,由於中文的語法結構與英文不同,可能需要調整 BERT 的模型結構或訓練方式,以獲得更好的效果。 ### BERT 模型微調時,學習率 (learning rate) 應該如何設定? 學習率的設定需要根據具體的任務和數據集進行調整。通常可以先嘗試一些常用的學習率,例如 1e-5、2e-5、3e-5,然後根據驗證集的表現進行調整。如果驗證集的損失下降緩慢,可以嘗試增加學習率;如果驗證集的損失震盪劇烈,可以嘗試減小學習率。 --- 來源:https://aiterms.tw/terms/bidirectional-encoder-representations-from-transformers 快查頁:https://aiterms.tw/terms/bidirectional-encoder-representations-from-transformers 深度解說:https://aiterms.tw/learning/what-is-bidirectional-encoder-representations-from-transformers --- # BLEU分數(BLEU Score) BLEU分數是一種評估機器翻譯文本品質的指標,通過比較候選譯文與參考譯文的n-gram重疊程度來計算,數值越高表示翻譯品質越好。 ## 完整說明 BLEU(Bilingual Evaluation Understudy)分數是一種用於評估機器翻譯文本品質的指標。它通過比較候選譯文(模型生成的翻譯)與一個或多個參考譯文(人工翻譯)的n-gram重疊程度來計算。BLEU分數的取值範圍在0到1之間,數值越高表示翻譯品質越好。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bleu-score 快查頁:https://aiterms.tw/terms/bleu-score 深度解說:https://aiterms.tw/learning/what-is-bleu-score --- # BM25算法(BM25) BM25 (Best Matching 25) 是一種用於資訊檢索的排序函數,它基於詞頻和逆文檔頻率,並考慮了文檔長度的影響,以提高檢索的準確性。 ## 完整說明 BM25 (Best Matching 25) 是一種在資訊檢索中廣泛使用的排序函數,屬於概率檢索模型。它基於詞頻(TF)和逆文檔頻率(IDF)的概念,並引入了文檔長度歸一化,以解決長文檔更容易被檢索到的問題。BM25旨在根據查詢和文檔之間的相關性對文檔進行排序,從而提高檢索的準確性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bm25 快查頁:https://aiterms.tw/terms/bm25 深度解說:https://aiterms.tw/learning/what-is-bm25 --- # Continuous Deployment(Continuous Integration) CI 每次提交自動建置+測試,CD 通過後自動部署到生產環境。確保每個變更都安全 ## 完整說明 持續部署是一種軟體工程實踐,讓通過測試的程式碼自動部署到生產環境,在 MLOps 中用於自動化模型更新和版本管理,確保 AI 系統持續改進。 ## 常見問題 ### Continuous Deployment 失敗時如何快速回滾? 快速回滾是 Continuous Deployment 的關鍵環節。通常會使用藍綠部署或 Canary Release 等策略,在出現問題時可以快速切換回先前的穩定版本。另外,健全的監控系統能及時發現問題,並觸發自動回滾機制。 ### Continuous Deployment 對測試團隊的要求有哪些? Continuous Deployment 對測試團隊的要求非常高。需要建立完善的自動化測試體系,包括單元測試、整合測試、系統測試和使用者介面測試。測試團隊需要具備編寫自動化測試案例的能力,並且能夠快速響應和解決測試問題。 ### 如何衡量 Continuous Deployment 的效果? 可以通過多個指標來衡量 Continuous Deployment 的效果,例如部署頻率、部署時間、錯誤率、回滾次數和使用者滿意度。通過監控這些指標,可以了解 Continuous Deployment 的效率和穩定性,並不斷改進流程。 --- 來源:https://aiterms.tw/terms/continuous-integration 快查頁:https://aiterms.tw/terms/continuous-integration 深度解說:https://aiterms.tw/learning/what-is-continuous-integration --- # F1 分數(F1 Score) Precision 和 Recall 的調和平均數 = 2PR/(P+R),兼顧「找得準」和「找得全」 ## 完整說明 F1 分數是精確率和召回率的調和平均數,綜合衡量分類模型的準確性,特別適用於正負樣本不均衡的場景,是 iPAS 考試中模型評估的核心指標。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### F1 分數的數值範圍是多少? F1 分數的數值範圍介於 0 到 1 之間。1 代表模型具有完美的精確度和召回率,而 0 代表模型表現極差。數值越高,代表模型在精確度和召回率之間的平衡越好。 ### 如何改善模型的 F1 分數? 改善 F1 分數通常需要調整模型的超參數,例如分類閾值,或者使用不同的模型。也可以嘗試使用數據增強技術來平衡數據集。此外,特徵工程也可能對 F1 分數產生影響。 ### F1 分數可以應用於多類別分類問題嗎? 雖然 F1 分數最初是為二元分類問題設計的,但可以通過一些方法將其應用於多類別分類問題。常見的方法包括計算每個類別的 F1 分數,然後取平均值(Macro-F1)或者根據類別的樣本數量進行加權平均(Weighted-F1)。 --- 來源:https://aiterms.tw/terms/f1-score 快查頁:https://aiterms.tw/terms/f1-score 深度解說:https://aiterms.tw/learning/what-is-f1-score --- # K 均值分群(K-Means Clustering) K 均值分群是一種將資料點分配到 K 個群集的演算法,透過反覆運算,將點分配到最近的群集中心,並更新中心位置,直到收斂 ## 完整說明 K-Means 是一種非監督式學習的分群演算法,將資料點依據距離自動分為 K 個群集,常用於顧客分群、影像壓縮和異常偵測,是 iPAS 初級考試的基礎統計題型。 ## 常見問題 ### K 均值分群的 K 值如何選擇? 選擇合適的 K 值是 K 均值分群的關鍵。常用的方法包括 Elbow Method(手肘法),觀察 WCSS 隨 K 值變化的曲線,選擇曲線斜率顯著下降的「手肘」位置作為 K 值。另一種方法是 Silhouette Coefficient(輪廓係數),計算每個樣本的輪廓係數,選擇平均輪廓係數最高的 K 值。 ### K 均值分群可以處理類別型資料嗎? K 均值分群主要用於處理數值型資料,因為它需要計算資料點之間的距離。對於類別型資料,需要先將其轉換為數值型資料,例如使用 One-Hot Encoding 或其他編碼方法。然而,直接對編碼後的資料使用 K 均值分群可能效果不佳,可以考慮使用 K-Modes 等專門處理類別型資料的分群演算法。 ### 如何評估 K 均值分群的結果? 評估 K 均值分群結果的指標有很多,除了前面提到的 WCSS 和 Silhouette Coefficient 之外,還可以使用 Davies-Bouldin Index 和 Calinski-Harabasz Index。這些指標都是用來衡量群集內的緊密度和群集間的分離度,數值越小通常代表分群效果越好。然而,最終的評估還需要結合實際應用場景,判斷分群結果是否具有實際意義。 --- 來源:https://aiterms.tw/terms/k-means-clustering 快查頁:https://aiterms.tw/terms/k-means-clustering 深度解說:https://aiterms.tw/learning/what-is-k-means-clustering --- # K 近鄰(K-Nearest Neighbors) K 近鄰演算法是一種基於實例的學習方法,透過找出距離最近的 K 個鄰居,以投票方式決定資料點的分類 ## 完整說明 K 近鄰 (KNN) 是一種監督式學習演算法,用於分類和迴歸任務。它基於實例的學習,通過尋找與目標樣本最接近的 K 個鄰居,並根據這些鄰居的類別或數值來預測目標樣本的類別或數值。KNN 簡單易懂,但計算複雜度較高,且對特徵縮放敏感。它不需要顯式的訓練過程,屬於惰性學習方法。 ## 常見問題 ### K 近鄰演算法的 K 值如何選擇? K 值的選擇對模型的準確性有很大影響。通常可以透過交叉驗證等方法,嘗試不同的 K 值,然後選擇在驗證集上表現最好的 K 值。一般來說,可以選擇 K 值為奇數,以避免在二元分類問題中出現平局的情況。 ### K 近鄰演算法如何處理缺失值? K 近鄰演算法對缺失值比較敏感。一種處理方法是直接移除包含缺失值的資料點。另一種方法是使用插補法,例如使用平均值、中位數或眾數來填補缺失值。更複雜的方法是使用 K 近鄰演算法本身來預測缺失值。 ### K 近鄰演算法的距離度量方法有哪些? 常用的距離度量方法包括歐氏距離、曼哈頓距離、明可夫斯基距離、餘弦相似度等。歐氏距離是最常見的選擇,適用於連續型資料。曼哈頓距離適用於資料的維度之間相互獨立的情況。餘弦相似度適用於文本資料或高維稀疏資料。 --- 來源:https://aiterms.tw/terms/k-nearest-neighbors 快查頁:https://aiterms.tw/terms/k-nearest-neighbors 深度解說:https://aiterms.tw/learning/what-is-k-nearest-neighbors --- # KL散度(KL Divergence) KL散度(Kullback-Leibler Divergence)衡量兩個機率分佈的差異,數值越大代表分佈差異越大,常用於評估模型預測分佈與真實分佈的接近程度。 ## 完整說明 KL散度(Kullback-Leibler Divergence),又稱相對熵,是一種衡量兩個機率分佈P和Q之間差異的非對稱度量。它量化了使用分佈Q來近似分佈P時所損失的信息量。KL散度永遠是非負的,且當P=Q時,KL散度為零。在機器學習中,常被用於評估模型預測的分佈與真實分佈的接近程度,是變分推斷和生成模型的重要工具。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/kl-divergence 快查頁:https://aiterms.tw/terms/kl-divergence 深度解說:https://aiterms.tw/learning/what-is-kl-divergence --- # L1 正則化(L1 Regularization (Lasso)) L1 正則化透過懲罰權重的絕對值總和,驅使模型將不重要特徵的權重歸零,達到特徵選擇的效果 ## 完整說明 L1 正則化 (Lasso) 是一種用於線性模型的正規化技術,用於防止過擬合。它通過在損失函數中添加模型權重絕對值的總和來實現,這會懲罰模型使用過大的權重。L1 正則化的一個重要特性是它可以將某些權重縮減為零,從而實現特徵選擇,簡化模型並提高泛化能力。因此,Lasso 常用於高維數據的建模。 ## 常見問題 ### L1 正則化會影響模型的訓練速度嗎? 是的,L1 正則化可能會影響模型的訓練速度。由於 L1 正則化引入的懲罰項在權重為零時不可微,因此需要使用特殊的優化算法,例如次梯度法或座標下降法,這些算法可能比用於 L2 正則化的算法更慢。 ### 如何選擇 L1 正則化的正則化強度 λ? 選擇 L1 正則化的正則化強度 λ 的最佳方法是使用交叉驗證。將數據集分成訓練集和驗證集,然後在訓練集上訓練模型,並在驗證集上評估模型的性能。嘗試不同的 λ 值,選擇在驗證集上表現最佳的 λ 值。 ### L1 正則化可以應用於哪些類型的模型? L1 正則化可以應用於多種線性模型,例如線性迴歸、Logistic 迴歸和支持向量機 (SVM)。此外,L1 正則化也可以與一些非線性模型結合使用,例如神經網絡,但需要對模型的結構進行調整。 --- 來源:https://aiterms.tw/terms/l1-regularization-lasso 快查頁:https://aiterms.tw/terms/l1-regularization-lasso 深度解說:https://aiterms.tw/learning/what-is-l1-regularization-lasso --- # L2 正則化(L2 Regularization (Ridge)) L2 正則化是一種透過懲罰權重平方和,使模型權重縮小、避免過度擬合的技術 ## 完整說明 L2 正則化是一種在機器學習模型訓練中常用的技巧,用於防止模型過度擬合。它透過在損失函數中加入模型權重的平方和項,懲罰較大的權重值,從而使模型更加簡單、泛化能力更強。L2 正則化又稱為 Ridge 迴歸,能有效降低模型對訓練資料的敏感度,提升在未知資料上的表現。 ## 常見問題 ### L2 正則化的 λ 值如何選擇? λ 值是控制正則化強度的超參數,通常使用交叉驗證等方法來選擇最佳值。可以嘗試一系列不同的 λ 值,例如 0.001, 0.01, 0.1, 1, 10 等,然後選擇在驗證集上性能最佳的 λ 值。也可以使用網格搜索或隨機搜索等自動超參數優化方法。 ### L2 正則化會影響模型的偏差嗎? 是的,L2 正則化會略微增加模型的偏差。因為它會限制模型的複雜度,使其無法完全擬合訓練資料。但是,這種偏差的增加通常是可以接受的,因為它可以顯著降低模型的方差,從而提高模型的泛化能力。 ### L2 正則化是否適用於所有機器學習模型? L2 正則化可以應用於許多機器學習模型,包括線性迴歸、邏輯迴歸、神經網路等。但是,對於某些模型,例如決策樹和隨機森林,L2 正則化的效果可能不明顯,因為這些模型本身就具有一定的正則化能力。 --- 來源:https://aiterms.tw/terms/l2-regularization-ridge 快查頁:https://aiterms.tw/terms/l2-regularization-ridge 深度解說:https://aiterms.tw/learning/what-is-l2-regularization-ridge --- # LangChain框架(LangChain) LangChain是一個用於開發基於大型語言模型(LLM)應用程式的框架。它簡化了LLM的整合、鏈接和部署,讓開發者能快速構建複雜的AI應用。 ## 完整說明 LangChain是一個開源框架,旨在簡化使用大型語言模型(LLM)開發應用程式的過程。它提供了一系列的工具、組件和介面,可以輕鬆地將LLM與其他資料來源和計算環境連接起來,從而構建更強大、更靈活的AI應用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/langchain 快查頁:https://aiterms.tw/terms/langchain 深度解說:https://aiterms.tw/learning/what-is-langchain --- # LIME(Local Interpretable Model-agnostic Explanations) LIME 針對單筆預測,以局部線性模型近似複雜黑箱模型的行為,提供與模型無關的可解釋性 ## 完整說明 LIME(Local Interpretable Model-agnostic Explanations)是一種可解釋 AI 技術,透過在局部區域建立簡單模型來解釋複雜模型的預測結果,幫助使用者理解 AI 決策的依據。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 4%,屬於未分類考範圍。 ## 常見問題 ### LIME和SHAP有什麼不同? LIME 著重於提供針對 *單一* 預測的局部解釋,透過在特定樣本附近建立簡單模型來近似黑箱模型。而 SHAP (SHapley Additive exPlanations) 則基於合作博弈論中的 Shapley 值,试图为 *每个特征* 分配一个贡献值,表示该特征对模型预测的贡献程度。SHAP 试图提供更全局和一致的解释,而 LIME 则更侧重于局部的可解释性。 ### 什麼時候應該使用LIME? 當你需要理解黑箱模型對 *特定* 樣本的預測依據時,LIME 非常有用。例如,你想知道為什麼某個客戶的貸款申請被拒絕,或者為什麼某張圖片被分類為特定物體。如果你的目標是理解模型總體的行為模式,或者需要比较不同特征的重要性,那么 SHAP 等全局解释方法可能更合适。 ### 初學者學習LIME最常見的誤解是什麼? 初學者常常誤以為 LIME 提供的解釋是模型 *真實* 的決策過程,而忽略了 LIME 只是利用簡單模型 *近似* 黑箱模型在局部區域的行為。因此,LIME 的解釋可能並不完全準確,只能作為理解模型決策的參考,而不能作為模型決策的絕對依據。 --- 來源:https://aiterms.tw/terms/local-interpretable-model-agnostic-explanations 快查頁:https://aiterms.tw/terms/local-interpretable-model-agnostic-explanations 深度解說:https://aiterms.tw/learning/what-is-local-interpretable-model-agnostic-explanations --- # No Code(Low Code) Low Code 和 No Code 的統稱,降低開發門檻讓非工程師也能建立數位工具 ## 完整說明 No Code(無程式碼開發)是一種透過視覺化介面和拖拉操作建構應用程式的方式,讓非技術人員也能快速開發 AI 應用和自動化流程,降低數位轉型的技術門檻。 ## 常見問題 ### No Code 平台如何處理資料安全問題? No Code 平台的資料安全措施通常包括資料加密、訪問控制、安全審計和定期的安全更新。使用者應仔細閱讀平台的安全政策,並採取適當的措施來保護自己的資料。選擇信譽良好、符合行業標準(例如 GDPR、HIPAA)的平台至關重要。 ### No Code 開發的應用程式可以擴展到多大規模? No Code 應用程式的擴展性取決於平台本身的能力和應用程式的設計。某些平台可以處理數百萬的使用者和大量的資料,而另一些平台則可能存在限制。在選擇平台時,應考慮應用程式的預期規模和成長速度。 ### No Code 會取代傳統的程式設計師嗎? No Code 不會完全取代傳統的程式設計師,但它會改變程式設計師的角色。程式設計師可以利用 No Code 平台來加速開發過程,並將精力集中於更複雜、更具挑戰性的任務上。No Code 更像是程式設計師的輔助工具,而不是替代品。 --- 來源:https://aiterms.tw/terms/low-code-1 快查頁:https://aiterms.tw/terms/low-code-1 深度解說:https://aiterms.tw/learning/what-is-low-code-1 --- # N元語法(N-gram) N元語法是一種自然語言處理技術,用於預測序列中下一個詞的概率,基於前N-1個詞的出現頻率。 ## 完整說明 N元語法是一種概率語言模型,它通過計算文本中連續N個項目的序列(稱為N元)的出現頻率,來預測序列中下一個項目的概率。這些項目可以是字母、單詞或符號。N元語法廣泛應用於自然語言處理的各個領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/n-gram 快查頁:https://aiterms.tw/terms/n-gram 深度解說:https://aiterms.tw/learning/what-is-n-gram --- # Python 串列與字典(Python List & Dictionary) Python 串列(List)是一種有序、可變的資料結構,用於儲存一系列元素;字典(Dictionary)則是一種鍵值對(Key-Value)的資料結構,用於快速查找和存取資料。 ## 完整說明 Python 串列與字典是 Python 程式設計中兩個非常重要的資料結構。串列是一種有序的集合,可以儲存任何資料類型,並且可以隨時新增、刪除或修改元素。串列使用中括號 `[]` 來表示,元素之間用逗號 `,` 分隔。字典則是一種鍵值對的集合,每個鍵都對應一個值,鍵必須是唯一的,而值可以是任何資料類型。字典使用大括號 `{}` 來表示,鍵值對之間用冒號 `:` 分隔,鍵值對之間用逗號 `,` 分隔。 在 iPAS 中級程式技能(Python)考試中,串列和字典是必考的重點。考生需要掌握串列和字典的建立、存取、修改、以及常見的操作方法,例如串列的切片、排序、新增元素,字典的查找、新增、刪除元素等。此外,還需要了解串列和字典的應用場景,例如使用串列儲存使用者資料,使用字典儲存配置資訊等。熟練掌握串列和字典的操作是通過 iPAS 中級考試的關鍵之一,據統計,約有 30% 的考題會直接或間接涉及這兩個資料結構。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - Python 語法閱讀與理解(佔 45%) - 程式邏輯判斷(佔 35%) - 程式片段解析與輸出預測(佔 20%) --- 來源:https://aiterms.tw/terms/python-list-dict 快查頁:https://aiterms.tw/terms/python-list-dict 深度解說:https://aiterms.tw/learning/what-is-python-list-dict --- # Python 條件與迴圈(Python Conditionals & Loops) Python 條件與迴圈是程式設計中控制程式流程的關鍵結構,透過條件判斷決定程式碼執行路徑,並利用迴圈重複執行特定程式碼區塊,實現複雜邏輯。 ## 完整說明 Python 條件與迴圈是程式設計的基礎要素,用於控制程式的執行流程。條件語句(如 `if`, `elif`, `else`)允許程式根據特定條件執行不同的程式碼區塊,實現分支邏輯。迴圈語句(如 `for`, `while`)則允許程式重複執行一段程式碼,直到滿足特定條件為止,適用於處理重複性任務。 條件語句的核心在於判斷條件的真假值(True/False)。根據條件的結果,程式會選擇性地執行相應的程式碼區塊。迴圈語句則透過設定初始值、條件判斷和更新迭代等步驟,控制迴圈的執行次數和過程。 在 iPAS 中級程式技能(Python)考試中,條件與迴圈是必考的重點。考生需要熟練掌握條件語句和迴圈語句的語法、用法和應用場景,能夠靈活運用它們解決實際問題,例如資料處理、演算法實現等。掌握這部分知識對於通過考試至關重要,也是日後進行更複雜的 AI 應用開發的基礎。近年 iPAS 考試中,約有 30% 的考題與條件判斷和迴圈控制相關。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - Python 語法閱讀與理解(佔 45%) - 程式邏輯判斷(佔 35%) - 程式片段解析與輸出預測(佔 20%) ## 常見問題 ### 什麼是Python 條件與迴圈? Python 條件與迴圈是控制程式流程的關鍵結構,條件語句根據條件執行不同程式碼,迴圈語句則重複執行程式碼區塊。它們是程式設計的基礎,賦予程式處理複雜邏輯的能力。 ### Python 條件與迴圈在 iPAS 考試中怎麼考? iPAS 中級程式技能(Python)考試中,會考察條件與迴圈的語法、邏輯和應用。常見題型包括判斷程式輸出、編寫程式碼解決問題、修改現有程式碼。需熟練掌握 if, elif, else, for, while 等語句。 ### Python 條件與迴圈和哪個術語最常被混淆? 條件語句常與函數混淆,雖然函數內部可使用條件語句,但前者用於封裝可重複使用程式碼,後者則用於條件判斷。for 迴圈與 while 迴圈也易混淆,前者遍歷序列,後者在滿足條件時重複執行。 --- 來源:https://aiterms.tw/terms/python-control-flow 快查頁:https://aiterms.tw/terms/python-control-flow 深度解說:https://aiterms.tw/learning/what-is-python-control-flow --- # ReAct框架(ReAct Framework) ReAct框架是一種結合推理(Reasoning)和行動(Acting)的AI Agent框架,允許模型在解決問題的過程中進行思考、規劃和執行。 ## 完整說明 ReAct框架是一種結合推理(Reasoning)和行動(Acting)的AI Agent框架。它用於解決需要複雜推理和與環境互動的問題。ReAct允許模型在解決問題的過程中進行思考、規劃和執行,從而提高解決問題的效率和準確性。常見應用包括問答系統、遊戲AI和機器人控制。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/react-framework 快查頁:https://aiterms.tw/terms/react-framework 深度解說:https://aiterms.tw/learning/what-is-react-framework --- # ROC 曲線(Receiver Operating Characteristic) 以 FPR 為 X 軸、TPR 為 Y 軸畫出的曲線,展示模型在不同分類門檻下的權衡 ## 完整說明 ROC 曲線 (Receiver Operating Characteristic) 是一種用於評估二元分類器性能的圖形工具。它通過繪製真陽性率 (True Positive Rate) 與假陽性率 (False Positive Rate) 在不同閾值下的關係來展示分類器的性能。ROC 曲線下的面積 (AUC) 是一個常用的性能指標,AUC 越大表示分類器的性能越好。ROC 曲線可以幫助選擇最佳的分類閾值,並比較不同分類器的性能。 ## 常見問題 ### AUC 值代表什麼意義? AUC(Area Under the Curve)是 ROC 曲線下的面積,其值介於 0 到 1 之間。AUC 值越高,代表模型區分正負樣本的能力越強。AUC 值為 1 表示模型完美區分正負樣本,AUC 值為 0.5 表示模型的效果等同於隨機猜測。通常,AUC 值大於 0.7 被認為是具有一定價值的模型。 ### 如何選擇 ROC 曲線上的最佳門檻值? 選擇最佳門檻值需要根據具體的業務場景和代價敏感度進行權衡。例如,在醫療診斷中,如果漏診的代價遠高於誤診,則應該選擇一個較低的門檻值,以提高真陽性率。可以使用 Youden's J statistic (J = Sensitivity + Specificity - 1) 來尋找最佳門檻值。 ### ROC 曲線是否適用於多類別分類問題? ROC 曲線本身是為二元分類問題設計的。對於多類別分類問題,可以採用 One-vs-Rest (OvR) 或 One-vs-One (OvO) 的方法,將多類別問題轉換為多個二元分類問題,然後針對每個二元分類問題繪製 ROC 曲線並計算 AUC 值。 --- 來源:https://aiterms.tw/terms/receiver-operating-characteristic 快查頁:https://aiterms.tw/terms/receiver-operating-characteristic 深度解說:https://aiterms.tw/learning/what-is-receiver-operating-characteristic --- # ROC 曲線下面積(Area Under the ROC Curve) 衡量分類模型在不同閾值下的綜合表現,AUC=1 完美,AUC=0.5 等於隨機猜 ## 完整說明 ROC 曲線下面積(AUC)是一種用於量化二元分類器性能的指標。它代表 ROC 曲線下方的面積,取值範圍在 0 到 1 之間。AUC 值越大,表示分類器的性能越好,能更準確地區分正負樣本。AUC 值為 0.5 表示分類器的性能等同於隨機猜測。 ## 常見問題 ### ROC 曲線的形狀會影響 AUC 的解讀嗎? 是的,ROC 曲線的形狀能提供額外資訊。一條更接近左上角的曲線代表模型在所有閾值下都有更好的表現。如果兩條曲線交叉,則需要仔細分析在不同 FPR 範圍內的 TPR,才能判斷哪個模型更適合特定應用。 ### AUC 可以用於多類別分類嗎? 雖然 AUC 主要用於二元分類,但可以通過 One-vs-Rest 或 One-vs-One 的方法擴展到多類別分類。One-vs-Rest 是將每個類別視為正例,其他類別視為負例,計算每個類別的 AUC。One-vs-One 則是將每兩個類別配對,計算每對的 AUC。 ### AUC 的值越高越好嗎? 一般情況下,AUC 值越高表示模型性能越好,但並非絕對。在某些特定場景下,例如需要極高的召回率 (Recall) 或精確率 (Precision) 時,可能需要犧牲一部分 AUC 來達到目標。因此,AUC 的解讀需要結合具體業務需求。 --- 來源:https://aiterms.tw/terms/area-under-the-roc-curve 快查頁:https://aiterms.tw/terms/area-under-the-roc-curve 深度解說:https://aiterms.tw/learning/what-is-area-under-the-roc-curve --- # ROUGE評分(ROUGE Score) ROUGE評分是一種用於評估自動文本摘要或機器翻譯品質的指標,通過比較生成文本與參考文本的n-gram重疊程度來衡量。 ## 完整說明 ROUGE (Recall-Oriented Understudy for Gisting Evaluation) 評分是一系列用於評估自動文本摘要和機器翻譯品質的指標。它通過計算生成文本(模型輸出)和一組參考文本(人工撰寫的標準答案)之間的n-gram重疊程度來衡量。ROUGE評分越高,表示生成文本與參考文本的相似度越高,品質也越好。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/rouge-score 快查頁:https://aiterms.tw/terms/rouge-score 深度解說:https://aiterms.tw/learning/what-is-rouge-score --- # S 型函數(Sigmoid Function) S 型函數能將任何數值壓縮至 0 到 1 之間,常用於二元分類模型,將輸出結果轉換為機率 ## 完整說明 S 型函數是一種常用的激活函數,其輸出值介於 0 和 1 之間,呈現 S 形曲線。它能夠將任意實數轉換為一個概率值,常用於二元分類問題的輸出層。在神經網路中,S 型函數引入非線性,使得模型能夠學習更複雜的模式。 ## 常見問題 ### S 型函數的輸出值一定是介於 0 和 1 之間嗎? 是的,S 型函數的輸出值永遠介於 0 和 1 之間。這是由於其數學公式的特性所決定的。無論輸入值有多大或多小,經過 S 型函數的轉換,都會被壓縮到這個範圍內。 ### S 型函數會被其他函數取代嗎? 在深度學習領域,S 型函數已經逐漸被 ReLU 等其他激活函數所取代,因為 ReLU 在緩解梯度消失問題和提高計算效率方面表現更好。但 S 型函數在某些特定應用場景,例如二元分類問題,仍然有其價值。 ### S 型函數在多分類問題中如何應用? 在多分類問題中,通常會使用 Softmax 函數,而不是直接使用 S 型函數。Softmax 函數將多個輸出值轉換為機率分佈,使得所有類別的機率之和等於 1。S 型函數則更適合於二元分類問題。 --- 來源:https://aiterms.tw/terms/sigmoid-function 快查頁:https://aiterms.tw/terms/sigmoid-function 深度解說:https://aiterms.tw/learning/what-is-sigmoid-function --- # SHAP(SHapley Additive exPlanations) SHAP 是一種基於賽局理論 Shapley 值的模型解釋方法,用於量化各特徵對模型預測的貢獻程度 ## 完整說明 SHAP(SHapley Additive exPlanations)是基於賽局理論的可解釋 AI 方法,量化每個特徵對模型預測的貢獻程度,提供一致且公平的特徵重要性分析。 ## 常見問題 ### SHAP 值可以是負數嗎?代表什麼意思? 是的,SHAP 值可以是負數。負的 SHAP 值表示該特徵對預測結果產生了負面影響,也就是說,該特徵降低了模型預測的數值。例如,在信用評分模型中,逾期還款的記錄可能會產生負的 SHAP 值,降低客戶的信用評分。 ### SHAP 值如何處理特徵之間的相關性? SHAP 值在處理特徵相關性方面存在一定的挑戰。當特徵高度相關時,它們的 SHAP 值可能會被分配得不準確。一些研究提出了改進 SHAP 以更好地處理特徵相關性的方法,例如考慮特徵之間的交互作用或使用基於因果模型的 SHAP 變體。 ### SHAP 的計算成本很高,有沒有更快的替代方案? 是的,SHAP 的計算成本可能很高,特別是對於複雜模型和大型數據集。除了 KernelSHAP 和 TreeSHAP 等近似算法外,還有一些更快的替代方案,例如 FastSHAP 和 Saabas。這些方法通常犧牲一定的準確性來換取更快的計算速度,需要根據具體應用場景進行權衡。 --- 來源:https://aiterms.tw/terms/shapley-additive-explanations 快查頁:https://aiterms.tw/terms/shapley-additive-explanations 深度解說:https://aiterms.tw/learning/what-is-shapley-additive-explanations --- # Softmax 函數(Softmax Function) Softmax 函數是一種將數值轉換為機率分佈的數學工具,常用於多元分類模型,確保輸出總和為一 ## 完整說明 Softmax 函數是一種常用的激活函數,通常用於多類別分類問題的輸出層。它將一個包含任意實數的向量轉換為一個概率分佈,其中每個元素代表屬於對應類別的概率。Softmax 函數確保所有類別的概率總和為 1,方便進行概率性的預測和決策。 ## 常見問題 ### Softmax 函數的輸入可以是負數嗎? 可以。Softmax 函數可以接受任何實數作為輸入,包括負數。指數函數會將負數轉換為介於 0 和 1 之間的數值,因此 Softmax 函數仍然能夠產生有效的機率分布。 ### Softmax 函數的輸出一定是唯一的嗎? 不一定。如果輸入向量中存在相同的數值,那麼 Softmax 函數的輸出中也會存在相同的機率值。只有當輸入向量中的所有數值都不同時,Softmax 函數的輸出才是唯一的。 ### Softmax 函數在深度學習框架中如何使用? 在常見的深度學習框架(如 TensorFlow、PyTorch)中,Softmax 函數通常作為一個層(Layer)來使用,可以直接添加到模型的輸出層。框架會自動處理 Softmax 函數的計算和梯度反向傳播。 --- 來源:https://aiterms.tw/terms/softmax-function 快查頁:https://aiterms.tw/terms/softmax-function 深度解說:https://aiterms.tw/learning/what-is-softmax-function --- # SPARQL查詢(SPARQL) SPARQL是一種用於查詢和操作RDF資料的查詢語言,類似於SQL用於關係資料庫。它允許使用者從知識圖譜中提取特定資訊。 ## 完整說明 SPARQL(SPARQL Protocol and RDF Query Language)是一種用於查詢和操作資源描述框架(RDF)資料的標準查詢語言。它允許使用者以結構化的方式從RDF圖形資料庫(也稱為知識圖譜)中提取、插入、更新和刪除資訊。SPARQL類似於SQL,但專門設計用於處理RDF資料。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sparql 快查頁:https://aiterms.tw/terms/sparql 深度解說:https://aiterms.tw/learning/what-is-sparql --- # Swin變換器(Swin Transformer) Swin Transformer是一種層級式的Transformer模型,用於電腦視覺任務,透過移動視窗機制有效降低計算複雜度,並提升模型效能。 ## 完整說明 Swin Transformer是一種基於Transformer架構的電腦視覺模型,它引入了移動視窗(shifted window)機制,允許在不重疊的局部視窗內進行自注意力計算,並在不同層之間移動視窗邊界,實現跨視窗的連接,從而有效降低計算複雜度,並提升模型在圖像分類、物件偵測和語義分割等任務上的效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/swin-transformer 快查頁:https://aiterms.tw/terms/swin-transformer 深度解說:https://aiterms.tw/learning/what-is-swin-transformer --- # TF-IDF(Term Frequency-Inverse Document Frequency) 衡量一個詞對文件的重要性:在這篇文件中出現多(TF 高)但在其他文件中少見(IDF 高)的詞最重要 ## 完整說明 TF-IDF(詞頻-逆文件頻率)是一種文本特徵提取方法,衡量一個詞在文件中的重要程度,廣泛用於搜尋引擎排序、文本分類和資訊檢索系統。 ## 常見問題 ### TF-IDF 的 IDF 計算公式中,分母加 1 的目的是什麼? 分母加 1 的目的是為了避免某些詞語在整個文件集中都沒有出現,導致 IDF 值變成無窮大,從而影響 TF-IDF 的計算結果。加 1 可以保證即使詞語沒有出現,IDF 值仍然是一個有限的數值。 ### TF-IDF 可以直接用於中文文本分析嗎?需要做哪些額外處理? TF-IDF 可以用於中文文本分析,但需要先進行分詞處理,將中文文本切分成單個詞語。此外,由於中文文本中存在大量的停用詞,例如「的」、「是」、「了」等,需要進行停用詞過濾,以提高 TF-IDF 的準確性。 ### 在實際應用中,如何選擇合適的 TF-IDF 權重計算方法? TF 和 IDF 都有多種不同的計算方法。選擇合適的權重計算方法取決於具體的應用場景和數據特點。例如,可以使用不同的 TF 標準化方法來處理不同長度的文件。可以使用不同的 IDF 計算方法來調整罕見詞語和常見詞語的權重。 --- 來源:https://aiterms.tw/terms/term-frequency-inverse-document-frequency 快查頁:https://aiterms.tw/terms/term-frequency-inverse-document-frequency 深度解說:https://aiterms.tw/learning/what-is-term-frequency-inverse-document-frequency --- # U型網路(U-Net) U-Net是一種用於圖像分割的深度學習模型,其架構呈U型,包含編碼器和解碼器,能有效捕捉圖像的上下文資訊和精確定位分割邊界。 ## 完整說明 U-Net是一種專為生物醫學圖像分割設計的深度學習模型,由編碼器(下採樣路徑)和解碼器(上採樣路徑)組成,架構呈U型。編碼器負責提取圖像的特徵,解碼器負責將特徵映射回原始圖像的尺寸,並進行像素級的分類。U-Net的跳躍連接 (skip connections) 將編碼器的特徵圖直接連接到解碼器,有助於保留圖像的細節資訊。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/u-net 快查頁:https://aiterms.tw/terms/u-net 深度解說:https://aiterms.tw/learning/what-is-u-net --- # Z 分數(Z-score) 衡量一個值偏離平均值幾個標準差,Z = (x - μ) / σ。常用於標準化和異常值檢測 ## 完整說明 Z 分數是一種標準化方法,用於衡量一個數據點與數據集平均值的距離,以標準差為單位。它能夠將不同尺度或單位的數據轉換為一個共同的尺度,方便進行比較和分析。Z 分數常用於異常偵測,判斷數據點是否顯著偏離平均值。 ## 常見問題 ### Z 分數為負值代表什麼意義? Z 分數為負值表示該數據點的值低於數據集的平均值。負號代表該數值在平均值之下,數值的絕對值則表示低於平均值多少個標準差。例如,Z 分數為 -1 表示該數值比平均值低一個標準差。 ### 如何使用 Z 分數進行異常值檢測? 通常,我們會設定一個 Z 分數的閾值,例如 2 或 3。如果某個數據點的 Z 分數的絕對值大於這個閾值,我們就認為它是異常值。這個閾值的選擇取決於具體應用和數據的特性。 ### Z 分數可以應用於非數值型數據嗎? Z 分數主要應用於數值型數據,因為它需要計算平均值和標準差。對於非數值型數據,例如類別數據,可以使用其他方法進行分析,例如計算頻率、比例,或者使用卡方檢定等統計方法。 --- 來源:https://aiterms.tw/terms/z-score 快查頁:https://aiterms.tw/terms/z-score 深度解說:https://aiterms.tw/learning/what-is-z-score --- # 三元組抽取(Triple Extraction) 三元組抽取是從文本中提取(主語,謂語,賓語)三元組的過程,是構建知識圖譜的基礎,也是關係抽取的一種形式。 ## 完整說明 三元組抽取(Triple Extraction)是自然語言處理中的一項重要任務,旨在從文本中自動提取(主語,謂語,賓語)形式的三元組。這些三元組代表了文本中實體之間的關係,是構建知識圖譜的基礎。三元組抽取可以看作是關係抽取的一種具體形式,它將關係抽取限定為提取三元組形式的知識。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/triple-extraction 快查頁:https://aiterms.tw/terms/triple-extraction 深度解說:https://aiterms.tw/learning/what-is-triple-extraction --- # 上下文學習(In-context Learning) 上下文學習 (In-context Learning) 指的是大型語言模型無需額外訓練,僅通過輸入範例即可學習新任務的能力。 ## 完整說明 上下文學習 (In-context Learning) 是一種讓大型語言模型 (LLM) 在沒有明確梯度更新或微調的情況下,僅通過在輸入提示中提供範例來執行新任務的技術。模型根據提示中的上下文信息,學習如何完成任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/in-context-learning 快查頁:https://aiterms.tw/terms/in-context-learning 深度解說:https://aiterms.tw/learning/what-is-in-context-learning --- # 上下文學習理論(In-context Learning Theory) 上下文學習理論指大型語言模型無需額外訓練,僅憑藉輸入提示中的範例,即可執行新任務的能力,展現了模型泛化的潛力。 ## 完整說明 上下文學習理論描述了大型語言模型(LLMs)在沒有明確梯度更新或微調的情況下,僅通過輸入提示(Prompt)中的範例或指令,就能學習並執行新任務的能力。這種能力展現了LLMs強大的泛化能力和對語言模式的理解,使其能夠適應各種不同的任務和情境。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/in-context-learning-theory 快查頁:https://aiterms.tw/terms/in-context-learning-theory 深度解說:https://aiterms.tw/learning/what-is-in-context-learning-theory --- # 上下文窗口(Context Window) 上下文窗口是指,大型語言模型一次性能處理的最大 Token 數量,超過此限制模型便會遺忘先前的內容 ## 完整說明 上下文窗口是一種在自然語言處理中使用的技術,用於指定模型在處理文本時可以考慮的周圍文本範圍。它決定了模型在預測下一個單詞或理解句子含義時,能夠參考多少先前的和後續的文本。更大的上下文窗口通常能提供更豐富的資訊,但也會增加計算複雜度。 ## 常見問題 ### 上下文窗口大小如何影響模型的效能? 上下文窗口大小直接影響模型能處理的資訊量。更大的上下文窗口通常能提升處理長文本、複雜任務的效能,例如長文本摘要、程式碼生成等。然而,過大的上下文窗口也會增加計算成本,甚至導致資訊衰減,影響模型效能。因此,需要根據具體任務選擇合適的上下文窗口。 ### 有哪些方法可以擴展上下文窗口? 擴展上下文窗口的方法包括:採用更高效的注意力機制(例如稀疏注意力)、使用記憶增強技術(例如檢索增強生成)以及優化模型結構。一些研究也探索了將長文本分割成多個片段,並分別處理,然後將結果整合的方法。 ### 上下文窗口和 Transformer 架構有什麼關係? 上下文窗口是 Transformer 架構的一個重要概念。Transformer 模型使用自注意力機制來捕捉輸入序列中不同位置之間的關係,而上下文窗口限制了自注意力機制可以關注的 Token 數量。因此,上下文窗口的大小直接影響了 Transformer 模型捕捉長距離依賴關係的能力。 --- 來源:https://aiterms.tw/terms/context-window 快查頁:https://aiterms.tw/terms/context-window 深度解說:https://aiterms.tw/learning/what-is-context-window --- # 世界模型(World Model) 世界模型是一種AI模型,旨在學習環境的內部表示,使代理能夠預測未來狀態並做出更明智的決策。 ## 完整說明 世界模型是一種機器學習模型,它試圖學習環境的內部表示,以便代理能夠預測其行為的結果。它允許代理在沒有實際與環境互動的情況下進行規劃和學習,從而提高效率和安全性。世界模型通常用於強化學習和機器人學等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/world-model 快查頁:https://aiterms.tw/terms/world-model 深度解說:https://aiterms.tw/learning/what-is-world-model --- # 中央極限定理(Central Limit Theorem) 中央極限定理指出,大量獨立隨機變數的總和(或平均值)趨近於常態分佈,與原始變數的分佈無關。是統計推論的基石。 ## 完整說明 中央極限定理是機率論中的一項重要定理,它指出,在適當條件下,大量獨立隨機變數的總和(或平均值)的分佈會趨近於常態分佈,而與這些變數原始的分佈無關。這使得我們可以使用常態分佈來近似許多統計量的分佈,即使原始數據並非常態分佈。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/central-limit-theorem 快查頁:https://aiterms.tw/terms/central-limit-theorem 深度解說:https://aiterms.tw/learning/what-is-central-limit-theorem --- # 主成分分析(Principal Component Analysis) 主成分分析是一種降維技術,藉由找出資料變異最大的方向,將高維度資料投影至低維度空間,以保留關鍵資訊 ## 完整說明 主成分分析 (PCA) 是一種統計方法,用於降低資料的維度,同時保留最重要的資訊。它通過將原始資料轉換為一組線性不相關的變數,稱為主成分,來實現這一點。這些主成分按其解釋資料變異性的程度排序,因此可以選擇前幾個主成分來代表原始資料,從而簡化分析和建模。 ## 常見問題 ### 主成分分析的特徵值代表什麼意義? 特徵值代表對應主成分所解釋的變異量大小。特徵值越大,表示該主成分包含的資訊越多,也就越重要。我們可以根據特徵值的大小來選擇需要保留的主成分數量,通常會選擇累積解釋變異量達到一定比例(例如 80%)的主成分。 ### 如何判斷主成分分析的降維效果好不好? 可以透過觀察累積解釋變異量來判斷降維效果。如果選取少數幾個主成分就能夠解釋大部分的變異量(例如 85% 以上),則說明降維效果良好。此外,也可以比較降維前後模型的性能,如果降維後模型的性能沒有明顯下降,甚至有所提升,則說明降維是有效的。 ### 主成分分析是否適用於所有類型的資料? 主成分分析是一種線性降維方法,對於線性結構的資料效果較好。如果資料具有高度非線性的結構,PCA 的效果可能不佳。在這種情況下,可以考慮使用非線性降維方法,例如 Kernel PCA 或 t-SNE。另外,PCA 對於缺失值比較敏感,需要先對缺失值進行處理。 --- 來源:https://aiterms.tw/terms/principal-component-analysis 快查頁:https://aiterms.tw/terms/principal-component-analysis 深度解說:https://aiterms.tw/learning/what-is-principal-component-analysis --- # 互信息(Mutual Information) 互信息衡量兩個隨機變數之間相互包含的信息量,數值越大代表相關性越高,常用於特徵選擇、圖像配準等任務。 ## 完整說明 互信息(Mutual Information)是資訊理論中衡量兩個隨機變數之間相互依賴程度的度量。它量化了知道一個變數的值後,另一個變數的不確定性減少的程度。互信息越大,表示兩個變數之間的相關性越高;互信息為零,表示兩個變數相互獨立。在機器學習中,互信息常被用於特徵選擇、圖像配準等任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mutual-information 快查頁:https://aiterms.tw/terms/mutual-information 深度解說:https://aiterms.tw/learning/what-is-mutual-information --- # 交並比(Intersection over Union) 交並比是物件偵測中,用來評估預測框與真實框定位準確度的指標,計算兩者重疊面積與聯集面積的比率 ## 完整說明 交並比 (IoU) 是一種用於評估物件偵測模型性能的指標。它計算預測邊界框和真實邊界框的交集面積與它們的聯集面積之比。IoU 值越高,表示預測結果與真實情況越吻合。通常,IoU 值超過一定閾值(例如 0.5)才被認為是成功的物件偵測。 ## 常見問題 ### IoU 的數值範圍是多少? IoU 的數值範圍介於 0 到 1 之間。數值越接近 1,表示預測框和真實框的重疊程度越高,定位準確度也越高。數值為 0 表示預測框和真實框完全沒有重疊。 ### IoU 在物件偵測中的作用是什麼? IoU 在物件偵測中主要用於兩個方面:一是作為評估指標,衡量模型預測的物件邊界框與真實邊界框的重疊程度;二是作為損失函數的一部分,引導模型學習更精確的物件定位。 ### 除了 IoU,還有哪些常用的物件偵測評估指標? 除了 IoU,常用的物件偵測評估指標還包括準確率(Precision)、召回率(Recall)、平均準確率均值(mAP)、F1 分數等。這些指標從不同的角度衡量模型的性能,需要綜合考慮。 --- 來源:https://aiterms.tw/terms/intersection-over-union 快查頁:https://aiterms.tw/terms/intersection-over-union 深度解說:https://aiterms.tw/learning/what-is-intersection-over-union --- # 交叉熵損失(Cross-entropy) 交叉熵損失是一種衡量兩個機率分佈之間差異的損失函數,常用於分類任務中評估模型預測結果與真實標籤的差距。 ## 完整說明 交叉熵損失(Cross-entropy loss),又稱對數損失(Log Loss),是一種用於衡量兩個機率分佈之間差異的損失函數。在機器學習中,尤其是在分類問題中,它被廣泛用於評估模型預測的機率分佈與真實標籤的機率分佈之間的差距。交叉熵越小,表示模型的預測結果越接近真實情況。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/cross-entropy 快查頁:https://aiterms.tw/terms/cross-entropy 深度解說:https://aiterms.tw/learning/what-is-cross-entropy --- # 交叉驗證(Cross-Validation) 交叉驗證是一種將資料分成多份,輪流以不同子集作為驗證集,藉此評估模型泛化能力的技術 ## 完整說明 交叉驗證是一種模型評估技術,用於評估機器學習模型在未見資料上的泛化能力。它將資料集分成多個子集(通常稱為摺疊),然後迭代地使用其中一個子集作為驗證集,其餘子集作為訓練集。通過平均多次迭代的評估結果,可以更可靠地估計模型的性能。在 iPAS 考試中,交叉驗證是評估模型泛化能力的重要方法。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - 類神經網路架構(佔 40%) - 模型訓練與評估(佔 35%) - 防止過擬合的策略(佔 25%) ## 常見問題 ### 交叉驗證和驗證集有什麼不同? 交叉驗證使用多個驗證集來評估模型,而傳統的驗證集只使用單一一個驗證集。交叉驗證通過多次訓練和驗證,取平均結果,能更全面地評估模型在不同資料子集上的表現,降低模型評估的偶然性。驗證集則通常用於在模型訓練過程中調整超參數,但其評估結果可能受到該特定驗證集資料分佈的影響。 ### 什麼時候應該使用交叉驗證? 當資料量相對較小,且需要更可靠地評估模型效能時,應使用交叉驗證。尤其是在模型選擇、超參數調整或比較不同模型時,交叉驗證可以提供更穩定的評估結果,降低模型過度擬合的風險。如果資料量非常大,且計算資源有限,則可以考慮使用單一驗證集。 ### 初學者學習交叉驗證最常見的誤解是什麼? 初學者最常見的誤解是認為交叉驗證可以完全避免過度擬合。雖然交叉驗證可以降低過度擬合的風險,但並不能完全消除它。如果訓練資料本身存在偏差或雜訊,或者模型結構過於複雜,即使使用交叉驗證,仍然可能出現過度擬合的情況。因此,除了交叉驗證之外,還需要注意資料清洗、特徵選擇和模型簡化等方法。 --- 來源:https://aiterms.tw/terms/cross-validation 快查頁:https://aiterms.tw/terms/cross-validation 深度解說:https://aiterms.tw/learning/what-is-cross-validation --- # 人工智慧(Artificial Intelligence) 人工智慧是模擬人類認知能力的電腦技術,透過機器學習與深度學習讓系統能自主學習與決策 ## 完整說明 人工智慧 (AI) 是一種模擬人類智慧的技術,用於使電腦能夠執行通常需要人類智慧才能完成的任務,例如學習、推理、問題解決和感知。AI 涵蓋了廣泛的領域,包括機器學習、深度學習、自然語言處理和電腦視覺等。在 iPAS 考試中,理解 AI 的基本概念和應用是重要的。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - AI 定義與分類的基本概念(佔 40%) - AI 發展脈絡與應用型態(佔 35%) - AI 與其他技術的關係辨別(佔 25%) ## 常見問題 ### 人工智慧和機器學習有什麼不同? 人工智慧是一個更廣泛的概念,旨在讓機器具備人類般的智慧。機器學習則是實現人工智慧的一種方法,它專注於讓機器透過數據學習,而不需要明確的程式指令。簡單來說,機器學習是人工智慧的子集。 ### 什麼時候應該使用人工智慧? 當需要處理大量數據、自動化重複性工作、解決複雜問題或進行預測時,可以考慮使用人工智慧。例如,在需要分析大量的客戶數據來預測購買行為,或需要進行自動化品質檢測時,AI 能提供有效的解決方案。 ### 初學者學習人工智慧最常見的誤解是什麼? 初學者常誤以為人工智慧是萬能的,可以解決所有問題。然而,AI 模型的效能高度依賴於數據品質和數量,且需要專業知識開發與部署。此外,AI 也存在可解釋性問題和偏見風險,需要謹慎評估和處理。 --- 來源:https://aiterms.tw/terms/artificial-intelligence 快查頁:https://aiterms.tw/terms/artificial-intelligence 深度解說:https://aiterms.tw/learning/what-is-artificial-intelligence --- # 人工智慧倫理(AI Ethics) 人工智慧倫理旨在探討並解決AI系統開發、部署和使用過程中涉及的道德、法律和社會問題,確保AI的發展符合人類價值觀。 ## 完整說明 人工智慧倫理是一個跨領域的研究領域,旨在探討並解決AI系統在開發、部署和使用過程中涉及的道德、法律和社會問題。它關注AI對人類福祉、公平、隱私和安全的潛在影響,並致力於制定指導原則和實踐,以確保AI的發展符合人類價值觀,並促進其負責任的使用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-ethics 快查頁:https://aiterms.tw/terms/ai-ethics 深度解說:https://aiterms.tw/learning/what-is-ai-ethics --- # 人工智慧公平性(Fairness in AI) 人工智慧公平性旨在確保AI系統的決策不會對特定群體或個人產生不合理的歧視,追求結果的公正與平等。 ## 完整說明 人工智慧公平性是AI倫理的一個重要組成部分,旨在確保AI系統的決策不會對特定群體或個人產生不合理的歧視。它關注AI系統在不同群體之間的表現差異,並致力於消除演算法中的偏見,以實現結果的公正與平等。公平性不僅僅是避免歧視,還包括積極地促進弱勢群體的權益。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/fairness-in-ai 快查頁:https://aiterms.tw/terms/fairness-in-ai 深度解說:https://aiterms.tw/learning/what-is-fairness-in-ai --- # 人工智慧安全(AI Safety) 人工智慧安全旨在確保AI系統在部署後,其行為符合人類意圖,避免產生意外或有害的後果,保障人類福祉。 ## 完整說明 人工智慧安全是一種跨領域的研究,旨在確保AI系統的行為符合人類意圖,避免產生意外或有害的後果。它用於預防AI系統失控、被濫用或產生不符合倫理的行為。常見應用包括開發更穩健的AI模型、建立安全協議和監控機制。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-safety 快查頁:https://aiterms.tw/terms/ai-safety 深度解說:https://aiterms.tw/learning/what-is-ai-safety --- # 人工智慧監管(AI Regulation) 人工智慧監管是指政府或相關機構制定和實施的,旨在規範人工智慧技術開發、部署和使用的法律、政策和指導方針,以確保其安全、公平和符合倫理。 ## 完整說明 人工智慧監管是一種針對人工智慧技術的開發、部署和使用進行規範的框架。它旨在確保人工智慧系統的安全、可靠、公平和符合倫理標準,並解決潛在的風險和社會影響。常見應用包括數據隱私保護、演算法透明度要求、以及對高風險人工智慧系統的審查。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-regulation 快查頁:https://aiterms.tw/terms/ai-regulation 深度解說:https://aiterms.tw/learning/what-is-ai-regulation --- # 人工智慧風險評估(AI Risk Assessment) 人工智慧風險評估是一種識別、分析和評估人工智慧系統可能造成的潛在風險的過程,旨在了解風險的性質、可能性和影響,並制定相應的應對措施。 ## 完整說明 人工智慧風險評估是一種系統性的過程,用於識別、分析和評估人工智慧系統在開發、部署和使用過程中可能產生的潛在風險。它旨在了解風險的性質、發生的可能性和潛在影響,並為制定風險緩解策略提供依據。常見應用包括金融、醫療、交通等高風險領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ai-risk-assessment 快查頁:https://aiterms.tw/terms/ai-risk-assessment 深度解說:https://aiterms.tw/learning/what-is-ai-risk-assessment --- # 人機迴路(Human-in-the-Loop) 人機迴路 (HITL) 是一種 AI 方法,其中人類參與模型訓練和決策過程,以提高準確性、可靠性和倫理考量。 ## 完整說明 人機迴路 (Human-in-the-Loop, HITL) 是一種人工智能 (AI) 方法,它強調在 AI 系統的開發和運營過程中,人類的積極參與。HITL 系統利用人類的智慧和判斷力來增強 AI 模型的性能,處理 AI 無法有效解決的複雜情況,並確保 AI 系統的倫理和社會責任。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/human-in-the-loop 快查頁:https://aiterms.tw/terms/human-in-the-loop 深度解說:https://aiterms.tw/learning/what-is-human-in-the-loop --- # 人臉辨識(Face Recognition) 人臉辨識是一種電腦視覺技術,用於自動識別或驗證圖像或影片中的人臉,並與已知人臉資料庫進行比對。 ## 完整說明 人臉辨識是一種電腦視覺技術,旨在自動識別或驗證圖像或影片中的人臉。它通過分析人臉的獨特特徵,例如眼睛、鼻子和嘴巴之間的距離和角度,並將這些特徵與已知人臉的資料庫進行比對,從而實現身份識別或驗證。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/face-recognition 快查頁:https://aiterms.tw/terms/face-recognition 深度解說:https://aiterms.tw/learning/what-is-face-recognition --- # 人類回饋強化學習(RLHF) 人類回饋強化學習(RLHF)是一種利用人類回饋訊號,訓練強化學習模型,使其行為更符合人類偏好的方法。 ## 完整說明 人類回饋強化學習(Reinforcement Learning from Human Feedback, RLHF)是一種結合強化學習和人類回饋的訓練方法。它利用人類對模型輸出的偏好作為獎勵訊號,訓練強化學習模型,使其生成的內容更符合人類的期望。常見應用包括提升對話系統、文本生成和程式碼生成的質量。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/rlhf 快查頁:https://aiterms.tw/terms/rlhf 深度解說:https://aiterms.tw/learning/what-is-rlhf --- # 代價函數(Cost Function) 代價函數是所有訓練樣本損失函數的平均值,用於評估模型在整個訓練集上的表現,並作為優化算法的目標。 ## 完整說明 代價函數(Cost Function)是衡量機器學習模型在整個訓練集上表現的指標。它通常是所有訓練樣本損失函數的平均值或總和。代價函數用於評估模型的整體性能,並作為優化算法的目標,通過最小化代價函數來尋找最佳模型參數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/cost-function 快查頁:https://aiterms.tw/terms/cost-function 深度解說:https://aiterms.tw/learning/what-is-cost-function --- # 位元組對編碼(Byte Pair Encoding) 位元組對編碼(BPE)是一種資料壓縮技術,也常用於自然語言處理中,作為一種詞彙標記化方法,將單詞分解成更小的子詞單元。 ## 完整說明 位元組對編碼(Byte Pair Encoding, BPE)是一種簡單的資料壓縮演算法,最初用於壓縮文字資料。在自然語言處理(NLP)領域,BPE被廣泛應用於詞彙標記化,它通過迭代地合併文本中最常見的字節對(或字符對)來創建詞彙表,從而有效地處理未登錄詞(OOV)問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/byte-pair-encoding 快查頁:https://aiterms.tw/terms/byte-pair-encoding 深度解說:https://aiterms.tw/learning/what-is-byte-pair-encoding --- # 位置編碼(Positional Encoding) 位置編碼是一種將序列中單詞或符號的位置資訊嵌入到向量表示中的技術,使模型能感知序列順序。 ## 完整說明 位置編碼是一種在序列模型(如Transformer)中使用的技術,用於將序列中每個元素的位置資訊添加到其嵌入向量中。由於Transformer等模型本身不具備感知順序的能力,位置編碼的引入使得模型能夠區分序列中不同位置的元素,從而更好地理解序列的結構和含義。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/positional-encoding 快查頁:https://aiterms.tw/terms/positional-encoding 深度解說:https://aiterms.tw/learning/what-is-positional-encoding --- # 低秩適配(LoRA) LoRA是一種參數高效的微調技術,透過學習低秩矩陣來適應預訓練模型,大幅減少訓練參數,降低計算成本。 ## 完整說明 LoRA (Low-Rank Adaptation) 是一種參數高效的微調方法,它凍結了預訓練模型的所有原始參數,並引入少量的可訓練參數(低秩矩陣)。這些低秩矩陣與原始模型權重並行添加,在訓練過程中只更新這些新增的參數,從而大幅降低了計算資源需求,並能快速適應特定任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/lora 快查頁:https://aiterms.tw/terms/lora 深度解說:https://aiterms.tw/learning/what-is-lora --- # 低程式碼(Low Code) 低程式碼平台讓使用者透過視覺化拖拉介面快速開發應用,大幅降低軟體開發的技術門檻與時間成本 ## 完整說明 低程式碼是一種軟體開發方法,用於透過圖形化介面和預建組件,以最少的手動編碼來創建應用程式。它能夠加速開發流程、降低技術門檻,並讓非專業開發者也能參與應用程式的開發。在 iPAS 考試中,低程式碼的概念與應用是評估考生對快速開發工具和方法理解的重要環節。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 6%,屬於高頻考範圍。 常見出題方向: - No-code/Low-code 工具特性(佔 40%) - 適用場景與限制判斷(佔 40%) - 與傳統開發的比較(佔 20%) ## 常見問題 ### 低程式碼平台是否適用於開發大型企業級應用程式? 是的,許多低程式碼平台都具有可擴展性和安全性,可以支援大型企業級應用程式的開發。但需要仔細評估平台的效能和安全性,並確保其符合企業的需求。例如,OutSystems 和 Mendix 等平台常被用於企業級應用程式開發。 ### 使用低程式碼平台會不會有資安風險? 使用任何軟體開發工具都存在資安風險,低程式碼平台也不例外。企業需要仔細評估平台的安全性,並確保其符合企業的安全標準。此外,開發者也需要注意程式碼的安全性,避免在程式碼中包含敏感資訊。定期進行安全漏洞掃描和滲透測試可以降低風險。 ### 學習低程式碼需要具備哪些先備知識? 雖然低程式碼降低了程式設計的門檻,但了解基本的程式設計概念、資料庫知識、API 整合以及軟體開發流程仍然很有幫助。擁有這些知識可以幫助開發者更有效地使用低程式碼平台,並解決開發過程中遇到的問題。 --- 來源:https://aiterms.tw/terms/low-code 快查頁:https://aiterms.tw/terms/low-code 深度解說:https://aiterms.tw/learning/what-is-low-code --- # 你只看一次(YOLO) YOLO (You Only Look Once) 是一種即時物件偵測演算法,它將物件偵測視為一個迴歸問題,直接從完整圖像預測邊界框和類別機率。 ## 完整說明 YOLO (You Only Look Once) 是一種流行的即時物件偵測演算法。與傳統的物件偵測方法不同,YOLO將物件偵測視為一個迴歸問題,直接從完整圖像預測邊界框和類別機率。這種方法使得YOLO能夠以非常快的速度處理圖像,使其適用於即時應用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/yolo 快查頁:https://aiterms.tw/terms/yolo 深度解說:https://aiterms.tw/learning/what-is-yolo --- # 依存句法分析(Dependency Parsing) 依存句法分析是自然語言處理中,分析句子中詞彙之間的依存關係,建立句子的語法結構,揭示詞彙間的修飾、支配等關係。 ## 完整說明 依存句法分析(Dependency Parsing)是自然語言處理(NLP)中的一項任務,旨在分析句子中詞彙之間的依存關係,建立句子的語法結構。依存句法分析將句子表示為一個依存樹,其中每個詞彙都是樹中的一個節點,節點之間的邊表示詞彙之間的依存關係。依存句法分析可以揭示詞彙之間的修飾、支配等關係,從而更好地理解句子的語義。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/dependency-parsing 快查頁:https://aiterms.tw/terms/dependency-parsing 深度解說:https://aiterms.tw/learning/what-is-dependency-parsing --- # 信用評分(Credit Scoring) 信用評分是利用統計模型評估個人或企業的信用風險,預測其未來償還債務的能力,是金融機構決策的重要依據。 ## 完整說明 信用評分是一種利用統計模型和機器學習算法,評估個人或企業的信用風險的方法。它基於歷史數據和各種因素,預測借款人未來償還債務的可能性。信用評分是金融機構在貸款、信用卡和其他信貸產品決策中的重要依據,有助於降低風險並提高效率。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/credit-scoring 快查頁:https://aiterms.tw/terms/credit-scoring 深度解說:https://aiterms.tw/learning/what-is-credit-scoring --- # 修正線性單元(Rectified Linear Unit) 修正線性單元是一種激活函數,其核心特徵為保留正值並將負值歸零,藉此加速計算並避免梯度消失 ## 完整說明 修正線性單元 (ReLU) 是一種常用的神經網路激活函數,用於引入非線性特性。它能夠將所有負值設為零,而正值則保持不變。ReLU 激活函數因其計算效率高和能有效避免梯度消失問題,而被廣泛應用於深度學習模型中。 ## 常見問題 ### ReLU6 是什麼?與 ReLU 有何不同? ReLU6 是 ReLU 的一個變體,它將 ReLU 的最大輸出限制為 6,即 `f(x) = min(max(0, x), 6)`。ReLU6 在某些硬體設備上可能更有效率,並且在量化模型中表現良好。 ### Leaky ReLU 如何解決 Dead ReLU 問題? Leaky ReLU 在負值輸入時允許一個小的非零梯度,例如 `f(x) = x if x > 0 else alpha * x`,其中 `alpha` 是一個小的常數(例如 0.01)。這可以防止神經元永久失效,因為即使輸入為負值,梯度仍然可以流動。 ### ReLU 的缺點是輸出不以零為中心,這會造成什麼影響? ReLU 的輸出不是以零為中心的,這意味著神經元的輸出始終為正或零。這可能導致梯度更新方向不一致,從而減慢模型的收斂速度。然而,在實踐中,ReLU 的優點通常超過了這個缺點。 --- 來源:https://aiterms.tw/terms/rectified-linear-unit 快查頁:https://aiterms.tw/terms/rectified-linear-unit 深度解說:https://aiterms.tw/learning/what-is-rectified-linear-unit --- # 假設檢定(Hypothesis Testing) 假設檢定是一種統計方法,透過樣本數據評估關於母體的假設是否成立,藉由計算機率值判斷證據強度,進而做出決策。 ## 完整說明 假設檢定是統計推論中的核心方法,用於檢驗關於母體的特定假設是否合理。其背景在於現實世界中,我們往往無法直接觀察整個母體,只能透過抽樣獲得樣本數據。假設檢定的核心概念是設定虛無假設(Null Hypothesis)和對立假設(Alternative Hypothesis),然後根據樣本數據計算檢定統計量,並計算出p值(p-value)。p值代表在虛無假設成立的前提下,觀察到目前樣本數據或更極端數據的機率。 若p值小於預先設定的顯著水準(通常為0.05),則拒絕虛無假設,接受對立假設;反之,若p值大於顯著水準,則不拒絕虛無假設。值得注意的是,不拒絕虛無假設並不代表虛無假設一定正確,而是表示目前沒有足夠的證據推翻它。 在iPAS考試中,假設檢定是評估數據分析能力的重要一環,考生需要理解不同類型的假設檢定(如t檢定、卡方檢定等)的適用條件、計算方法和結果解釋,並能應用於實際案例分析。掌握假設檢定有助於從數據中提取有意義的結論,並做出明智的決策。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 假設檢定步驟與方法(佔 45%) - 統計推論的應用(佔 35%) - 顯著性水準的判斷(佔 20%) ## 常見問題 ### 什麼是假設檢定? 假設檢定是一種統計方法,用於驗證關於母體參數的假設是否成立。它透過分析樣本數據,評估觀察到的結果是否與假設相符,並根據統計顯著性做出判斷,進而決定是否拒絕虛無假設。 ### 假設檢定在 iPAS 考試中怎麼考? iPAS 考試中,假設檢定常以案例分析形式出現,要求考生選擇合適的檢定方法、設定虛無假設和對立假設、計算 p 值並進行結果解釋。考試重點包括 t 檢定、卡方檢定等不同檢定的應用場景(L22103)。 ### 假設檢定和哪個術語最常被混淆? 假設檢定最常與信賴區間混淆。假設檢定用於驗證假設,判斷某個效應是否存在;而信賴區間則用於估計母體參數的可能範圍,提供一個數值區間,兩者目的不同,但都基於統計推論。 --- 來源:https://aiterms.tw/terms/hypothesis-testing 快查頁:https://aiterms.tw/terms/hypothesis-testing 深度解說:https://aiterms.tw/learning/what-is-hypothesis-testing --- # 偏差(Bias) 偏差是模型對特定族群或特徵產生系統性錯誤傾向,源自訓練資料不平衡或演算法設計缺陷 ## 完整說明 偏差 (Bias) 是一種系統性的誤差,用於描述模型預測結果與真實值之間的平均差異。偏差可能源於訓練資料的代表性不足、模型假設的簡化,或是演算法本身的限制。在 iPAS 考試中,理解偏差的來源和影響,以及如何減輕偏差,是評估考生對模型評估和公平性意識的重要指標。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 偏差和方差有什麼不同? 偏差(Bias)是指模型預測值與真實值之間的平均差異,反映了模型的準確性。方差(Variance)是指模型預測值的離散程度,反映了模型的穩定性。高偏差的模型會欠擬合,高方差的模型會過擬合。簡單來說,偏差是「預測不準」,方差是「預測不一致」。 ### 什麼時候應該使用偏差? 在某些情況下,我們可能需要有意引入偏差來提高模型的效能或滿足特定的需求。例如,在推薦系統中,我們可以引入「探索性偏差」,鼓勵模型推薦一些使用者可能感興趣但過去沒有互動過的內容,以避免使用者陷入「資訊泡泡」。 ### 初學者學習偏差最常見的誤解是什麼? 初學者最常見的誤解是認為偏差完全是負面的,應該被完全消除。事實上,偏差是一個複雜的概念,它既可以帶來負面影響,也可以帶來正面影響。更重要的是,我們應該理解偏差的成因和影響,並採取適當的策略來管理和控制偏差。 --- 來源:https://aiterms.tw/terms/bias 快查頁:https://aiterms.tw/terms/bias 深度解說:https://aiterms.tw/learning/what-is-bias --- # 偏差方差權衡(Bias-Variance Tradeoff) 偏差方差權衡是指在模型訓練中,降低偏差會增加方差,反之亦然。目標是找到一個平衡點,使模型在未見過的數據上表現良好。 ## 完整說明 偏差方差權衡是機器學習中的核心概念,描述了模型複雜度與泛化能力之間的關係。高偏差模型過於簡化,欠擬合數據;高方差模型過於複雜,過擬合數據。理想的模型應在兩者之間取得平衡,以達到最佳的預測準確度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bias-variance-tradeoff 快查頁:https://aiterms.tw/terms/bias-variance-tradeoff 深度解說:https://aiterms.tw/learning/what-is-bias-variance-tradeoff --- # 元學習(Meta-learning) 元學習,又稱學習如何學習,旨在訓練模型能夠快速適應新任務或環境,透過少量樣本即可達到良好的效能。 ## 完整說明 元學習 (Meta-learning),又稱「學習如何學習」(Learning to Learn),是一種機器學習方法,旨在訓練模型能夠快速適應新的任務或環境。與傳統的機器學習方法不同,元學習不僅學習如何執行單一任務,更學習如何學習,從而能夠在面對新的任務時,僅需少量樣本即可達到良好的效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/meta-learning 快查頁:https://aiterms.tw/terms/meta-learning 深度解說:https://aiterms.tw/learning/what-is-meta-learning --- # 先知預測模型(Prophet) Prophet是由Facebook開發的時間序列預測模型,專為具有強烈季節性趨勢的商業時間序列資料設計,易於使用且具有良好的預測能力。 ## 完整說明 Prophet是由Facebook開發的一種時間序列預測模型,專為具有強烈季節性趨勢的商業時間序列資料設計。它基於可分解的時間序列模型,將時間序列分解為趨勢、季節性和節假日效應三個部分。Prophet模型易於使用,並且具有良好的預測能力,即使在資料缺失或存在異常值的情況下也能保持穩健性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/prophet 快查頁:https://aiterms.tw/terms/prophet 深度解說:https://aiterms.tw/learning/what-is-prophet --- # 光學字元辨識(OCR) 光學字元辨識(OCR)是一種技術,能將圖像中的文字轉換為機器可讀的文字格式,例如將掃描文件轉換為可編輯的文字。 ## 完整說明 光學字元辨識(OCR)是一種技術,用於將圖像中的文字轉換為機器可讀的文字格式。OCR 能夠從掃描文件、照片或其他圖像中提取文字,並將其轉換為可編輯的文字,方便後續處理和分析。常見應用包括文件數位化、自動表單處理和車牌識別。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ocr 快查頁:https://aiterms.tw/terms/ocr 深度解說:https://aiterms.tw/learning/what-is-ocr --- # 入侵偵測系統(Intrusion Detection System) 入侵偵測系統(IDS)是一種安全系統,旨在監控網路或系統中的惡意活動或策略違規行為。它通過分析流量、日誌和系統行為來識別潛在的入侵。 ## 完整說明 入侵偵測系統(IDS)是一種重要的安全工具,用於檢測網路或系統中發生的惡意活動。它通過分析網路流量、系統日誌、文件完整性以及其他系統行為來識別潛在的入侵。IDS 可以幫助安全團隊及早發現並響應安全事件,從而減少損害。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/intrusion-detection-system 快查頁:https://aiterms.tw/terms/intrusion-detection-system 深度解說:https://aiterms.tw/learning/what-is-intrusion-detection-system --- # 內容生成(Content Generation) 內容生成是指使用人工智慧技術自動創建文字、圖像、音訊或影片等內容的過程,旨在降低內容創作成本並提高效率。 ## 完整說明 內容生成是指利用人工智慧(AI)技術,自動產生各種形式的內容,包括文字、圖像、音訊和影片。這些AI模型透過學習大量的資料集,模仿人類的創作模式,進而生成新的、原創的內容。內容生成技術的目標是提高內容創作的效率、降低成本,並在某些情況下,實現規模化的內容生產。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/content-generation 快查頁:https://aiterms.tw/terms/content-generation 深度解說:https://aiterms.tw/learning/what-is-content-generation --- # 內容過濾推薦(Content-based Filtering) 內容過濾推薦是一種推薦系統方法,它基於用戶過去互動過的項目內容特徵,向用戶推薦相似的項目。它分析項目描述,並匹配用戶偏好。 ## 完整說明 內容過濾推薦是一種推薦系統方法,它通過分析用戶過去互動過的項目(例如,閱讀的文章、購買的商品、觀看的影片)的內容特徵,來建立用戶的偏好模型。然後,系統會將這些偏好與新項目的內容特徵進行匹配,並推薦與用戶偏好相似的項目。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/content-based-filtering 快查頁:https://aiterms.tw/terms/content-based-filtering 深度解說:https://aiterms.tw/learning/what-is-content-based-filtering --- # 公平性(Fairness) 公平性要求 AI 模型對不同人口族群的決策結果無系統性歧視,需透過資料與演算法設計確保 ## 完整說明 公平性 (Fairness) 是一種衡量 AI 系統對不同群體或個體產生相同或相似結果的程度的指標。它用於確保 AI 系統不會歧視或不公平地對待特定群體,並避免產生不合理的社會影響。在 iPAS 考試中,公平性是評估考生對 AI 倫理和社會責任意識的重要環節,要求考生了解不同公平性指標和緩解偏差的方法。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 公平性和隱私保護有什麼關係? 公平性和隱私保護都是 AI 倫理的重要組成部分。有時為了提高公平性,可能需要收集更多關於個體的敏感資訊(例如種族、性別),但這可能會侵犯個體的隱私。因此,需要在公平性和隱私保護之間取得平衡。例如,差分隱私技術可以在保護隱私的同時,用於分析不同群體之間的差異,從而提高公平性。 ### 如何衡量 AI 系統的公平性? 衡量 AI 系統的公平性可以使用多種指標,例如統計均等差異(Statistical Parity Difference)、機會均等差異(Equal Opportunity Difference)、預測均等差異(Predictive Equality Difference)等。選擇哪種指標取決於具體的應用場景和所關注的公平性問題。沒有一個通用的指標適用於所有情況。 ### 誰應該負責確保 AI 系統的公平性? 確保 AI 系統的公平性是所有參與 AI 系統開發和部署的人的共同責任,包括資料科學家、工程師、產品經理、決策者等。資料科學家負責構建公平的模型,工程師負責部署公平的系統,產品經理負責定義公平的產品,決策者負責制定公平的政策。 --- 來源:https://aiterms.tw/terms/fairness 快查頁:https://aiterms.tw/terms/fairness 深度解說:https://aiterms.tw/learning/what-is-fairness --- # 公民開發者(Citizen Developer) 公民開發者是指,能運用低程式碼(LCNC)平台,開發應用程式的非資訊背景專業人士 ## 完整說明 公民開發者是指非專業程式設計師,但具備領域知識,並利用低程式碼或無程式碼平台來創建應用程式或自動化工作流程的人。他們能夠解決自身或團隊遇到的問題,加速數位轉型,並提高生產力。公民開發者的興起反映了技術民主化的趨勢。 ## 常見問題 ### 公民開發者需要學習程式語言嗎? 不一定。公民開發者主要使用低程式碼/無程式碼平台,這些平台通常提供圖形化介面和預建組件,不需要編寫大量的程式碼。但了解一些基礎的程式概念,例如變數、迴圈、條件判斷等,可以幫助公民開發者更有效地使用這些平台。 ### 企業如何管理公民開發者的活動? 企業可以建立公民開發者中心,提供培訓、支援和資源。制定開發規範和安全標準,確保公民開發者開發的應用程式符合企業的要求。同時,建立審核機制,對公民開發者開發的應用程式進行評估和批准。 ### 公民開發者的未來發展趨勢是什麼? 隨著低程式碼/無程式碼技術的成熟,公民開發者的角色將會越來越重要。未來,公民開發者將會在企業數位轉型中扮演更積極的角色,他們將能夠更快速地回應業務需求,開發出更多創新的解決方案。 --- 來源:https://aiterms.tw/terms/citizen-developer 快查頁:https://aiterms.tw/terms/citizen-developer 深度解說:https://aiterms.tw/learning/what-is-citizen-developer --- # 共指解析(Coreference Resolution) 共指解析是自然語言處理中的一項任務,旨在識別文本中指向同一個實體的不同提及(mentions),例如代詞、名詞短語等。 ## 完整說明 共指解析(Coreference Resolution)是自然語言處理(NLP)中的一項重要任務,旨在識別文本中指向同一個現實世界實體的不同提及(mentions)。這些提及可以是代詞(例如:他、她、它)、名詞短語(例如:總統、那輛車)或其他指代表達式。共指解析的目標是將這些提及鏈接在一起,形成一個共指鏈,從而幫助機器理解文本的語義。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/coreference-resolution 快查頁:https://aiterms.tw/terms/coreference-resolution 深度解說:https://aiterms.tw/learning/what-is-coreference-resolution --- # 共變異數(Covariance) 共變異數衡量兩個變數如何一起變化。正值表示它們趨於一起增加或減少,負值表示一個增加時另一個趨於減少,零值表示沒有線性關係。 ## 完整說明 共變異數是一種統計量,用於衡量兩個隨機變數之間線性關係的強度和方向。它表示兩個變數同時變化的程度。正共變異數表示兩個變數傾向於一起增加或減少,而負共變異數表示一個變數增加時,另一個變數傾向於減少。共變異數為零表示兩個變數之間沒有線性關係。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/covariance 快查頁:https://aiterms.tw/terms/covariance 深度解說:https://aiterms.tw/learning/what-is-covariance --- # 具身人工智慧(Embodied AI) 具身人工智慧是指讓AI系統擁有物理軀體,透過與環境互動來學習和解決問題,強調感知、行動和環境之間的循環。 ## 完整說明 具身人工智慧是一種AI研究範式,強調AI系統必須擁有物理軀體或虛擬化身,才能透過與環境的互動來學習和解決問題。它不同於傳統的AI方法,後者通常側重於抽象的數據處理和符號推理。具身AI的核心理念是,智能的發展離不開感知、行動和環境之間的循環。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/embodied-ai 快查頁:https://aiterms.tw/terms/embodied-ai 深度解說:https://aiterms.tw/learning/what-is-embodied-ai --- # 最大似然估計(Maximum Likelihood Estimation) 最大似然估計 (MLE) 是一種統計方法,用於估計機率分佈的參數,它通過最大化觀察到樣本數據的似然函數來實現。 ## 完整說明 最大似然估計 (MLE) 是一種常用的統計推斷方法,用於估計機率模型中的參數。其核心思想是:選擇使觀察到的樣本數據出現機率最大的參數值作為最佳估計。MLE 假設數據來自某個已知分佈,並尋找最能解釋這些數據的分佈參數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/maximum-likelihood-estimation 快查頁:https://aiterms.tw/terms/maximum-likelihood-estimation 深度解說:https://aiterms.tw/learning/what-is-maximum-likelihood-estimation --- # 冷啟動問題(Cold Start Problem) 冷啟動問題是指在推薦系統中,對於新使用者或新物品,由於缺乏足夠的互動資料,導致無法準確推薦的問題。常見解決方案包括利用元資料、內容過濾或混合推薦。 ## 完整說明 冷啟動問題是推薦系統中一個重要的挑戰,指的是系統對於新加入的使用者或物品,由於缺乏足夠的歷史互動資料,難以準確地進行推薦。這會導致新使用者體驗不佳,新物品曝光率低,影響系統的整體效果。解決冷啟動問題是提升推薦系統實用性的關鍵。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/cold-start-problem 快查頁:https://aiterms.tw/terms/cold-start-problem 深度解說:https://aiterms.tw/learning/what-is-cold-start-problem --- # 凸優化(Convex Optimization) 凸優化是一種數學優化方法,旨在尋找凸函數在凸集合上的最小值。其優點是局部最小值即為全局最小值,易於求解。 ## 完整說明 凸優化是數學優化的一個子領域,研究的是在凸集合上最小化凸函數的問題。由於凸優化問題的任何局部最小值也是全局最小值,因此它們相對容易解決。許多機器學習問題可以被表述或近似為凸優化問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/convex-optimization 快查頁:https://aiterms.tw/terms/convex-optimization 深度解說:https://aiterms.tw/learning/what-is-convex-optimization --- # 函數呼叫(Function Calling) 函數呼叫是一種允許大型語言模型(LLM)調用外部函數或API的能力,以擴展其功能並與外部世界互動。 ## 完整說明 函數呼叫是一種讓大型語言模型(LLM)能夠調用外部函數或API的機制。它用於擴展LLM的能力,使其不僅能生成文本,還能執行特定任務,例如查詢天氣、預訂機票等。常見應用包括智能助理、自動化工作流程和數據分析。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/function-calling 快查頁:https://aiterms.tw/terms/function-calling 深度解說:https://aiterms.tw/learning/what-is-function-calling --- # 分塊處理(Chunking) 分塊處理是指將大型資料集或文本分割成更小、更易於管理的部分,以便於模型處理和分析,提升效率。 ## 完整說明 分塊處理是一種將大型資料集或文本分割成更小、更易於管理的部分的技術。這種方法在處理長文本、大型圖像或複雜資料結構時非常有用,可以降低計算複雜度,提升模型處理速度和效率,並減少記憶體佔用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/chunking 快查頁:https://aiterms.tw/terms/chunking 深度解說:https://aiterms.tw/learning/what-is-chunking --- # 分散式訓練(Distributed Training) 分散式訓練利用多個計算節點,將模型訓練任務分割並行處理,加速大型模型訓練,提升效率。 ## 完整說明 分散式訓練是一種機器學習技術,旨在利用多個計算節點(例如多個GPU或多台機器)並行處理模型訓練任務。透過將資料或模型分割到不同的節點上,可以顯著縮短訓練時間,並處理單一機器無法負荷的大型模型和資料集。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/distributed-training 快查頁:https://aiterms.tw/terms/distributed-training 深度解說:https://aiterms.tw/learning/what-is-distributed-training --- # 分詞(Tokenization) 分詞是自然語言處理的首要步驟,將連續文本拆解為詞或子詞等更小語義單位的過程 ## 完整說明 分詞是一種自然語言處理的基礎技術,用於將一段文本拆解成更小的單元,例如詞彙、子詞或字符。這些單元被稱為 tokens,是後續文本分析、模型訓練的基礎。分詞的品質直接影響自然語言處理任務的效能,例如文本分類、機器翻譯等。 ## 常見問題 ### 分詞的結果會影響後續 NLP 任務的效能嗎? 是的,分詞的品質直接影響後續 NLP 任務的效能。錯誤的分詞可能導致語義理解偏差,進而影響例如情感分析、機器翻譯等任務的準確性。選擇適合特定語言和任務的分詞策略至關重要。 ### 是否存在適用於所有語言的分詞器? 雖然有一些通用的分詞方法,例如基於規則或統計的分詞,但由於不同語言的特性差異很大,很難找到一個適用於所有語言的最佳分詞器。通常需要針對特定語言進行優化和調整。 ### 子詞分詞 (Subword Tokenization) 的優點是什麼? 子詞分詞的主要優點是可以有效地處理未登錄詞 (Out-of-Vocabulary, OOV) 問題,並能減少詞彙表的大小。這使得模型能夠更好地泛化到未見過的詞語,同時降低計算複雜度。 --- 來源:https://aiterms.tw/terms/tokenization 快查頁:https://aiterms.tw/terms/tokenization 深度解說:https://aiterms.tw/learning/what-is-tokenization --- # 判定係數(R-squared) 判定係數(R-squared)衡量模型解釋目標變數變異的比例,數值介於 0 到 1 之間 ## 完整說明 判定係數(R-squared)是一種統計方法,用於評估迴歸模型預測結果與實際值的擬合程度。R-squared 的值介於 0 到 1 之間,數值越高表示模型解釋變異的能力越強,模型預測的準確性越高。然而,高 R-squared 值並不一定代表模型是好的,需要結合其他指標一起評估。 ## 常見問題 ### 判定係數為負值代表什麼意思? 判定係數通常介於 0 到 1 之間。但如果模型表現比直接猜測目標變數的平均值還要差,則 R² 值可能為負數。這表示模型完全不適用於預測目標變數。 ### 調整後的判定係數(Adjusted R-squared)是什麼?它與判定係數有何不同? 調整後的判定係數考慮了模型中自變數的數量。當模型增加新的自變數時,R² 值通常會上升,即使新增的自變數對模型沒有實際的解釋能力。調整後的判定係數會對新增無效的自變數進行懲罰,因此更適合用於比較包含不同數量自變數的模型。 ### 判定係數可以應用於非線性模型嗎? 判定係數主要用於評估線性迴歸模型的擬合優度。雖然可以將 R² 值應用於非線性模型,但其解釋能力可能不如線性模型。對於非線性模型,通常會使用其他指標,例如偽 R 平方(Pseudo R-squared)或 AIC/BIC 準則來評估模型的效果。 --- 來源:https://aiterms.tw/terms/r-squared 快查頁:https://aiterms.tw/terms/r-squared 深度解說:https://aiterms.tw/learning/what-is-r-squared --- # 前綴調整法(Prefix Tuning) 前綴調整法是一種參數高效的微調技術,通過在輸入序列前添加可訓練的前綴向量,來引導預訓練模型生成期望的輸出,同時保持原始模型參數凍結。 ## 完整說明 前綴調整法是一種輕量級的微調方法,它在預訓練語言模型的輸入序列前添加一段可訓練的前綴(prefix),並僅更新這些前綴的參數,而凍結預訓練模型本身的大部分參數。通過調整前綴,模型可以被引導生成特定任務所需的輸出,從而實現任務適應。這種方法在保持模型性能的同時,顯著降低了訓練成本。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/prefix-tuning 快查頁:https://aiterms.tw/terms/prefix-tuning 深度解說:https://aiterms.tw/learning/what-is-prefix-tuning --- # 前饋神經網路(Feedforward Neural Network) 前饋神經網路是一種訊息單向傳播的神經網路,由輸入層、隱藏層和輸出層組成,廣泛應用於分類和迴歸任務。 ## 完整說明 前饋神經網路 (Feedforward Neural Network, FFNN) 是一種訊息單向傳播的人工神經網路。它由輸入層、一個或多個隱藏層和輸出層組成。訊息從輸入層開始,經過隱藏層的處理,最終到達輸出層。FFNN 沒有反饋迴路,因此稱為前饋網路。FFNN 廣泛應用於分類、迴歸和模式識別等任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/feedforward-neural-network 快查頁:https://aiterms.tw/terms/feedforward-neural-network 深度解說:https://aiterms.tw/learning/what-is-feedforward-neural-network --- # 加速區域卷積網路(Faster R-CNN) Faster R-CNN是一種物件偵測演算法,它使用區域建議網路(RPN)來生成候選區域,並使用卷積神經網路(CNN)對這些區域進行分類和邊界框回歸。 ## 完整說明 Faster R-CNN (加速區域卷積網路) 是一種物件偵測演算法,它通過引入區域建議網路 (Region Proposal Network, RPN) 大幅提升了物件偵測的速度。RPN 負責生成可能包含物件的候選區域,然後使用卷積神經網路 (CNN) 對這些區域進行分類和邊界框回歸,從而實現快速且準確的物件偵測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/faster-r-cnn 快查頁:https://aiterms.tw/terms/faster-r-cnn 深度解說:https://aiterms.tw/learning/what-is-faster-r-cnn --- # 半監督學習(Semi-supervised Learning) 半監督學習是一種機器學習方法,它結合了少量標記資料和大量未標記資料進行模型訓練,旨在利用未標記資料提升模型效能,降低標記成本。 ## 完整說明 半監督學習(Semi-supervised Learning)是一種機器學習方法,它介於監督學習和非監督學習之間。它利用少量已標記的資料和大量未標記的資料來訓練模型。其目標是利用未標記資料中蘊含的資訊,提升模型的泛化能力和準確性,同時降低對大量標記資料的依賴。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/semi-supervised-learning 快查頁:https://aiterms.tw/terms/semi-supervised-learning 深度解說:https://aiterms.tw/learning/what-is-semi-supervised-learning --- # 協同過濾(Collaborative Filtering) 協同過濾是一種推薦系統技術,透過分析使用者行為或偏好,預測使用者可能感興趣的項目,例如商品、電影或音樂。 ## 完整說明 協同過濾是一種廣泛使用的推薦系統技術,它基於這樣一個假設:如果使用者過去對某些項目有相似的偏好,那麼他們未來也可能對其他項目有相似的偏好。協同過濾透過收集和分析大量使用者行為數據(例如評分、購買記錄、瀏覽歷史)來預測使用者可能感興趣的項目。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/collaborative-filtering 快查頁:https://aiterms.tw/terms/collaborative-filtering 深度解說:https://aiterms.tw/learning/what-is-collaborative-filtering --- # 卜瓦松分佈(Poisson Distribution) 卜瓦松分佈是一種離散機率分佈,描述在固定時間或地點內,事件發生的次數。其特點是事件發生是獨立且隨機的。 ## 完整說明 卜瓦松分佈是一種離散機率分佈,用於描述在固定時間或地點內,事件發生的次數。它假設事件是獨立且隨機發生的,且事件發生的平均速率是已知的。卜瓦松分佈廣泛應用於排隊理論、風險管理和生物統計學等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/poisson-distribution 快查頁:https://aiterms.tw/terms/poisson-distribution 深度解說:https://aiterms.tw/learning/what-is-poisson-distribution --- # 卡方檢定(Chi-squared Test) 卡方檢定是一種統計方法,用於檢驗兩個或多個類別變數之間是否存在顯著關聯性。它比較觀察值與期望值之間的差異。 ## 完整說明 卡方檢定是一種非參數統計檢定方法,主要用於分析類別變數之間的關聯性。它通過比較觀察到的頻率與在假設兩個變數獨立情況下期望的頻率,來判斷是否存在顯著差異,從而推斷變數之間是否存在關聯。卡方檢定廣泛應用於各個領域,例如醫學、社會科學和市場研究。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/chi-squared-test 快查頁:https://aiterms.tw/terms/chi-squared-test 深度解說:https://aiterms.tw/learning/what-is-chi-squared-test --- # 即時推論(Real-time Inference) 即時推論是指模型在接收到單個輸入後立即進行預測,適用於需要快速響應的應用,例如線上推薦或詐欺檢測。 ## 完整說明 即時推論是一種模型部署策略,它允許模型在接收到單個輸入後立即進行預測。這種方法適用於需要快速響應的應用,例如線上推薦系統、詐欺檢測或自動駕駛。即時推論通常需要高性能的硬體和優化的軟體架構。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/real-time-inference 快查頁:https://aiterms.tw/terms/real-time-inference 深度解說:https://aiterms.tw/learning/what-is-real-time-inference --- # 卷積神經網路(Convolutional Neural Network) 專門處理圖像的神經網路,用小窗口(卷積核)掃過圖片提取局部特徵,參數共享大幅減少計算量 ## 完整說明 卷積神經網路(CNN)是一種深度學習模型,用於處理具有網格結構的資料,例如圖像、語音等。CNN 透過卷積運算提取資料中的特徵,並利用池化層降低資料維度,從而實現高效的特徵學習。在 iPAS 中級考試中,CNN 的結構、運算方式以及在圖像辨識等領域的應用是重要的考點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 如果訓練數據不足,如何提高卷積神經網路的性能? 當訓練數據不足時,可以採用數據增強技術,例如旋轉、縮放、平移等,增加訓練數據的多樣性。此外,還可以使用預訓練模型,將在大型數據集上訓練好的模型遷移到目標任務上,減少訓練時間和數據需求。 ### 卷積神經網路中的 Dropout 技術是什麼?有什麼作用? Dropout 是一種正則化技術,在訓練過程中隨機地將一部分神經元的輸出置為零,防止模型過擬合。Dropout 可以迫使模型學習更加魯棒的特徵,提高模型的泛化能力。通常在全連接層中使用 Dropout。 ### 如何選擇卷積神經網路的架構? 選擇 CNN 架構需要根據具體的應用場景和數據集進行調整。如果數據集較小,可以選擇較小的模型,例如 LeNet-5 或 AlexNet。如果數據集較大,可以選擇較大的模型,例如 VGGNet 或 ResNet。此外,還可以根據任務的複雜程度選擇不同的模型。 --- 來源:https://aiterms.tw/terms/convolutional-neural-network 快查頁:https://aiterms.tw/terms/convolutional-neural-network 深度解說:https://aiterms.tw/learning/what-is-convolutional-neural-network --- # 去噪擴散機率模型(Denoising Diffusion Probabilistic Model) 去噪擴散機率模型(DDPM)是一種生成模型,通過逐步添加高斯噪聲破壞資料,然後學習逆向過程,從噪聲中重建資料,實現高品質的資料生成。 ## 完整說明 去噪擴散機率模型(Denoising Diffusion Probabilistic Model, DDPM)是一種生成模型,它通過一個前向擴散過程逐步向資料中添加高斯噪聲,直到資料完全變成噪聲。然後,模型學習一個逆向的去噪過程,從純噪聲開始,逐步去除噪聲,最終生成新的資料樣本。DDPM 以其生成高品質圖像的能力而聞名。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/denoising-diffusion-probabilistic-model 快查頁:https://aiterms.tw/terms/denoising-diffusion-probabilistic-model 深度解說:https://aiterms.tw/learning/what-is-denoising-diffusion-probabilistic-model --- # 反事實解釋(Counterfactual Explanation) 反事實解釋描述了為了改變模型預測結果,輸入數據需要做的最小變動。它提供了一種理解模型決策邏輯的方式。 ## 完整說明 反事實解釋是一種解釋機器學習模型決策的方法,它通過描述為了改變模型的預測結果,輸入數據需要做的最小變動來工作。它回答了“如果…會怎樣?”的問題,例如,“如果我的信用評分提高50分,貸款申請會被批准嗎?”反事實解釋有助於理解模型決策的邏輯,並識別影響預測結果的關鍵因素。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/counterfactual-explanation 快查頁:https://aiterms.tw/terms/counterfactual-explanation 深度解說:https://aiterms.tw/learning/what-is-counterfactual-explanation --- # 反洗錢人工智慧(Anti-Money Laundering AI) 反洗錢人工智慧(AML AI)利用AI技術自動偵測金融交易中的可疑活動,協助金融機構遵守法規,打擊洗錢犯罪。 ## 完整說明 反洗錢人工智慧(AML AI)是指運用人工智慧技術,特別是機器學習和自然語言處理,來自動化和增強金融機構偵測和預防洗錢活動的能力。它能分析大量的交易數據,識別異常模式,並生成警報,以供人工審查。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/anti-money-laundering-ai 快查頁:https://aiterms.tw/terms/anti-money-laundering-ai 深度解說:https://aiterms.tw/learning/what-is-anti-money-laundering-ai --- # 召回率(Recall) 召回率衡量模型在所有實際正例中,成功識別出多少正例的能力,反映其查找完整性的指標 ## 完整說明 召回率(Recall)是一種模型評估指標,用於衡量模型正確識別出所有正例的能力。它表示在所有實際為正例的樣本中,模型成功預測為正例的比例。在 iPAS 初級考試中,召回率與精確度(Precision)經常一起出現,用於評估分類模型的效能,理解兩者的差異和應用場景至關重要。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 召回率和精確率有什麼不同? 召回率(Recall)衡量的是模型在所有真正的正例中,成功預測出多少比例的正例,關注的是「找全」,公式為 TP/(TP+FN)。精確率(Precision)衡量的是模型預測為正例的樣本中,有多少是真正的正例,關注的是「找準」,公式為 TP/(TP+FP)。 ### 什麼時候應該使用召回率? 當漏判的代價遠遠高於誤判的代價時,應該優先考慮使用召回率。例如,在醫療診斷中,漏診可能導致病情惡化;在金融風控中,漏掉詐欺交易可能導致重大損失。此時,提高召回率,即使誤判一些案例,也比漏判更重要。 ### 初學者學習召回率最常見的誤解是什麼? 初學者常誤以為召回率越高越好,忽略精確率。單純追求高召回率可能導致模型將許多負例錯誤預測為正例,造成困擾。在實際應用中,需要在召回率和精確率之間權衡,選擇適合特定場景的指標,例如 F1-score。 --- 來源:https://aiterms.tw/terms/recall 快查頁:https://aiterms.tw/terms/recall 深度解說:https://aiterms.tw/learning/what-is-recall --- # 可解釋人工智慧(Explainable AI) 可解釋 AI 透過視覺化或簡化模型,讓黑箱模型的預測決策過程可被人類理解與稽核 ## 完整說明 可解釋人工智慧(XAI)是一種人工智慧領域,旨在使 AI 模型的決策過程更加透明和可理解。XAI 的目標是讓人類能夠理解模型如何做出預測,從而提高對 AI 系統的信任度,並確保其公平性和可靠性。在 iPAS 中級考試中,XAI 的重要性日益增加,理解其概念和方法對於開發負責任的 AI 系統至關重要。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 可解釋人工智慧和模型可解釋性有什麼不同? 「可解釋人工智慧」(Explainable AI, XAI) 是一套技術和方法,旨在讓 AI 決策透明易懂。「模型可解釋性」(Model Interpretability) 則是 XAI 的關鍵組成,指模型本身能夠被人類理解的程度。XAI 是系統性方案,模型可解釋性是其特性。 ### 什麼時候應該使用可解釋人工智慧? 當 AI 決策影響重大,需要驗證和追溯,或需要確保公平性和透明度時,應使用可解釋人工智慧。例如金融信貸、醫療診斷等領域。若模型準確率高且影響小,可考慮不使用,避免增加複雜性。 ### 初學者學習可解釋人工智慧最常見的誤解是什麼? 初學者常誤以為 XAI 能完全解釋 AI 決策,消除所有不確定性。實際上,XAI 只能提供一定程度的解釋,幫助理解依據,而非完全揭示機制。XAI 是輔助工具,提高信任度,但不能取代人類判斷。 --- 來源:https://aiterms.tw/terms/explainable-ai 快查頁:https://aiterms.tw/terms/explainable-ai 深度解說:https://aiterms.tw/learning/what-is-explainable-ai --- # 合成數據(Synthetic Data) 合成數據是指通過程式或演算法生成的人工數據,而非從真實世界收集的數據。它常用於訓練AI模型,特別是在真實數據稀缺或涉及隱私問題時。 ## 完整說明 合成數據是一種通過程式或演算法生成的人工數據,它並非來自真實世界的觀測或測量。合成數據可用於訓練機器學習模型,模擬真實世界的場景,或用於測試軟體系統。常見應用包括醫療保健、金融和自動駕駛等領域,在這些領域,真實數據的獲取可能受到限制或涉及隱私問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/synthetic-data 快查頁:https://aiterms.tw/terms/synthetic-data 深度解說:https://aiterms.tw/learning/what-is-synthetic-data --- # 合成資料生成(Synthetic Data Generation) 合成資料生成是指透過程式或模型創建人工資料,用於訓練機器學習模型,尤其是在真實資料稀缺或難以獲取的情況下。 ## 完整說明 合成資料生成(Synthetic Data Generation)是一種利用演算法或模型創建人工資料的技術。這些資料旨在模仿真實資料的統計特性和結構,用於訓練機器學習模型,尤其是在真實資料稀缺、成本高昂或涉及隱私問題的情況下。合成資料可以有效地解決資料不足的問題,並加速機器學習模型的開發和部署。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/synthetic-data-generation 快查頁:https://aiterms.tw/terms/synthetic-data-generation 深度解說:https://aiterms.tw/learning/what-is-synthetic-data-generation --- # 同態加密(Homomorphic Encryption) 同態加密是一種加密技術,允許直接對加密數據執行計算,而無需事先解密 ## 完整說明 同態加密是一種特殊的加密形式,允許在加密的數據上執行計算,而無需先解密數據。計算結果經過解密後,與直接在未加密數據上執行相同計算的結果相同。這種技術能夠在保護數據隱私的同時進行數據處理,廣泛應用於雲計算、金融等領域,以確保敏感數據的安全。 ## 常見問題 ### 同態加密的安全性如何保證? 同態加密的安全性取決於所使用的加密演算法。目前主流的同態加密方案,例如 BGV、BFV 和 CKKS 等,都是基於格密碼學的,其安全性基於一些困難的數學問題,例如最短向量問題(SVP)和學習帶錯誤問題(LWE)。 ### 同態加密的計算速度有多慢? 同態加密的計算速度通常比明文計算慢很多,具體速度取決於所使用的加密方案、資料大小和計算類型。一般來說,全同態加密的計算速度比部分同態加密慢,複雜的計算比簡單的計算慢。目前全同態加密的計算速度大約比明文計算慢數百到數千倍。 ### 同態加密是否適用於所有類型的資料? 同態加密可以應用於各種不同類型的資料,包括數值資料、文本資料和圖像資料。然而,不同的同態加密方案可能更適合於處理特定類型的資料。例如,CKKS 方案更適合於處理浮點數,而 BGV 和 BFV 方案更適合於處理整數。 --- 來源:https://aiterms.tw/terms/homomorphic-encryption 快查頁:https://aiterms.tw/terms/homomorphic-encryption 深度解說:https://aiterms.tw/learning/what-is-homomorphic-encryption --- # 向量資料庫(Vector Database) 向量資料庫是一種專門儲存和檢索向量嵌入的資料庫,能高效處理高維度資料的相似性搜尋,廣泛應用於推薦系統和語義搜尋。 ## 完整說明 向量資料庫是一種專門設計用於儲存、索引和查詢向量嵌入的資料庫。它能夠高效地執行近似最近鄰 (ANN) 搜尋,用於尋找與查詢向量最相似的向量。常見應用包括推薦系統、語義搜尋、圖像檢索和異常偵測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/vector-database 快查頁:https://aiterms.tw/terms/vector-database 深度解說:https://aiterms.tw/learning/what-is-vector-database --- # 命名實體辨識(Named Entity Recognition) 命名實體辨識是從文字中自動識別並分類出人名、地點、組織等實體的技術 ## 完整說明 命名實體辨識是一種自然語言處理技術,用於識別文本中具有特定意義的命名實體,例如人名、地名、組織機構名、日期、貨幣等。它能夠將文本中的詞彙進行分類,並標記出屬於特定類別的實體,在信息提取、文本摘要、機器翻譯等應用中扮演重要角色。 ## 常見問題 ### 命名實體辨識的準確率通常能達到多少? 命名實體辨識的準確率取決於多個因素,包括資料集品質、模型複雜度以及領域特性。在標準資料集上,例如 CoNLL-2003,基於 Transformer 的模型可以達到 90% 以上的 F1 值。但在實際應用中,由於領域差異和資料噪音,準確率可能會有所下降。因此,針對特定領域進行模型微調通常是必要的。 ### 命名實體辨識技術在隱私保護方面有哪些挑戰? 命名實體辨識技術可能會暴露文本中包含的個人資訊,例如姓名、地址、電話號碼等,從而引發隱私洩露的風險。為了解決這個問題,可以採用一些隱私保護技術,例如差分隱私、匿名化處理等,在進行 NER 的同時保護使用者的隱私。此外,在模型訓練和部署過程中,也需要遵守相關的隱私法規。 ### 如何選擇合適的命名實體辨識模型? 選擇合適的命名實體辨識模型需要考慮多個因素,包括資料集大小、計算資源限制以及準確率要求。如果資料集較小,可以考慮使用基於規則的模型或預訓練模型進行微調。如果計算資源充足,可以嘗試使用更複雜的深度學習模型。此外,還需要根據具體應用場景選擇合適的實體類型。 --- 來源:https://aiterms.tw/terms/named-entity-recognition 快查頁:https://aiterms.tw/terms/named-entity-recognition 深度解說:https://aiterms.tw/learning/what-is-named-entity-recognition --- # 問答系統(Question Answering) 問答系統是一種利用電腦程式自動回答人類提出的問題的技術,旨在提供快速、精確的資訊檢索和知識獲取。 ## 完整說明 問答系統(Question Answering, QA)是一種資訊檢索系統,它能夠根據使用者提出的自然語言問題,自動從知識庫、文本語料庫或網際網路中檢索並提供答案。問答系統的目標是提供比傳統搜尋引擎更直接和精確的資訊,使用戶能夠更快速地找到所需的答案。問答系統的發展涉及自然語言處理、資訊檢索和知識表示等多個領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/question-answering 快查頁:https://aiterms.tw/terms/question-answering 深度解說:https://aiterms.tw/learning/what-is-question-answering --- # 單樣本學習(One-shot Learning) 單樣本學習是一種機器學習方法,旨在僅使用一個或少數幾個樣本來學習新的類別或概念,模擬人類快速學習的能力。 ## 完整說明 單樣本學習(One-shot Learning)是一種機器學習技術,其目標是僅使用一個或極少數的訓練樣本來學習新的類別或概念。這種方法模擬了人類快速學習的能力,即通過觀察一個或幾個例子就能夠識別和理解新的事物。它與傳統機器學習方法需要大量訓練資料形成鮮明對比。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/one-shot-learning 快查頁:https://aiterms.tw/terms/one-shot-learning 深度解說:https://aiterms.tw/learning/what-is-one-shot-learning --- # 回饋迴路(Feedback Loop) 回饋迴路是指系統輸出影響其輸入的過程,在AI中用於迭代改進模型效能,透過評估結果並調整參數。 ## 完整說明 回饋迴路是指系統的輸出作為輸入重新進入系統的過程。在人工智慧領域,回饋迴路通常用於迭代地改進模型效能。模型產生輸出,然後評估該輸出,並根據評估結果調整模型的參數或訓練資料,以期在下一次迭代中產生更好的輸出。這種循環過程不斷重複,直到模型達到期望的效能水平。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/feedback-loop 快查頁:https://aiterms.tw/terms/feedback-loop 深度解說:https://aiterms.tw/learning/what-is-feedback-loop --- # 因果推論(Causal Inference) 因果推論是從觀察數據中推斷因果關係的方法,旨在確定一個變數的變化是否直接導致另一個變數的變化。 ## 完整說明 因果推論是一種統計方法,旨在從觀察數據中推斷因果關係。與傳統的相關性分析不同,因果推論試圖確定一個變數(原因)的變化是否直接導致另一個變數(結果)的變化。它在科學研究、政策制定和商業決策中都扮演著重要的角色。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/causal-inference 快查頁:https://aiterms.tw/terms/causal-inference 深度解說:https://aiterms.tw/learning/what-is-causal-inference --- # 因果語言模型(Causal Language Model) 因果語言模型是一種語言模型,它基於序列中先前詞彙預測下一個詞彙,並明確建模詞彙之間的因果關係,以提升生成文本的連貫性和可控性。 ## 完整說明 因果語言模型 (CLM) 是一種特殊的語言模型,它僅使用序列中先前的詞彙來預測下一個詞彙。與雙向模型不同,CLM 避免了使用未來詞彙的信息,從而更真實地模擬了人類產生語言的方式。這種單向性使其在生成任務中表現出色,並能更好地控制生成文本的風格和內容。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/causal-language-model 快查頁:https://aiterms.tw/terms/causal-language-model 深度解說:https://aiterms.tw/learning/what-is-causal-language-model --- # 困惑度(Perplexity) 困惑度衡量語言模型預測文本序列的能力,數值越低代表模型預測能力越好,對文本的理解程度越高。 ## 完整說明 困惑度(Perplexity)是一種評估語言模型好壞的指標,它衡量模型預測文本序列的平均不確定性。困惑度越低,表示模型對文本的預測能力越好,對文本的理解程度越高。困惑度基於信息論中的交叉熵概念,可以理解為模型在預測下一個詞時的平均分支數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/perplexity 快查頁:https://aiterms.tw/terms/perplexity 深度解說:https://aiterms.tw/learning/what-is-perplexity --- # 圖像分類(Image Classification) 圖像分類是電腦視覺中的一項任務,旨在將圖像分配到預定義的類別中。模型學習圖像特徵,並基於這些特徵預測圖像所屬的類別。 ## 完整說明 圖像分類是電腦視覺領域的核心任務,其目標是將輸入圖像自動分配到預先定義好的類別集合中的一個或多個類別。這個過程涉及訓練一個模型,使其能夠學習圖像中的關鍵特徵,並基於這些特徵來預測圖像最有可能屬於的類別。圖像分類廣泛應用於各個領域,例如醫療影像分析、自動駕駛和安全監控。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/image-classification 快查頁:https://aiterms.tw/terms/image-classification 深度解說:https://aiterms.tw/learning/what-is-image-classification --- # 圖像生成(Image Generation) 圖像生成是一種人工智慧技術,旨在從文字描述、其他圖像或隨機雜訊中創造出全新的、逼真的或風格化的圖像。 ## 完整說明 圖像生成是一種生成式人工智慧技術,用於從輸入資料(如文字描述、其他圖像或隨機雜訊)創造出全新的圖像。它能夠生成逼真的照片、藝術作品、設計概念等,常見應用包括內容創作、產品設計、虛擬世界構建等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/image-generation 快查頁:https://aiterms.tw/terms/image-generation 深度解說:https://aiterms.tw/learning/what-is-image-generation --- # 圖像識別(Image Recognition) 圖像識別是電腦視覺領域的一項任務,旨在識別圖像中的對象、人物、地點或事件。它比圖像分類更廣泛,可能涉及定位和標記圖像中的多個對象。 ## 完整說明 圖像識別是電腦視覺領域的一個廣泛概念,其目標是讓電腦能夠理解和解釋圖像中的內容。這不僅包括將圖像分類到預定義的類別中(如圖像分類),還包括識別圖像中的特定對象、人物、地點或事件。圖像識別技術廣泛應用於各個領域,例如人臉識別、物體檢測和場景理解。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/image-recognition 快查頁:https://aiterms.tw/terms/image-recognition 深度解說:https://aiterms.tw/learning/what-is-image-recognition --- # 圖形處理器(GPU) 圖形處理器(GPU)是一種專為並行處理設計的電子電路,最初用於加速圖像渲染,現廣泛應用於深度學習等需要大量計算的領域。 ## 完整說明 圖形處理器(GPU)最初設計用於加速電腦圖形的渲染。其架構針對並行處理進行了優化,能夠同時執行大量計算。隨著深度學習的興起,GPU因其強大的並行計算能力,成為訓練和運行複雜神經網路的首選硬體。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/gpu 快查頁:https://aiterms.tw/terms/gpu 深度解說:https://aiterms.tw/learning/what-is-gpu --- # 圖檢索增強(Graph RAG) 圖檢索增強(Graph RAG)利用知識圖譜結構化信息,提升檢索效率和答案準確性,優於傳統向量檢索。 ## 完整說明 圖檢索增強(Graph RAG)是一種結合知識圖譜和檢索增強生成(RAG)的技術。它利用知識圖譜的結構化信息來改進檢索過程,從而提供更準確和上下文相關的答案。相較於傳統的基於向量相似度的檢索方法,Graph RAG 能夠更好地理解實體之間的關係,並利用這些關係來擴展檢索範圍和提高檢索質量。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/graph-rag 快查頁:https://aiterms.tw/terms/graph-rag 深度解說:https://aiterms.tw/learning/what-is-graph-rag --- # 圖神經網路(Graph Neural Network) 圖神經網路(GNN)是一種用於處理圖結構資料的深度學習模型,能學習節點、邊和圖的表示,並用於節點分類、連結預測和圖分類等任務。 ## 完整說明 圖神經網路(GNN)是一種專門設計用於處理圖結構資料的深度學習模型。與傳統神經網路不同,GNN可以直接利用圖的拓撲結構和節點/邊的特徵資訊進行學習。GNN通過迭代地聚合鄰居節點的資訊來更新節點的表示,最終學習到節點、邊和圖的有效表示,可用於各種圖相關的任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/graph-neural-network 快查頁:https://aiterms.tw/terms/graph-neural-network 深度解說:https://aiterms.tw/learning/what-is-graph-neural-network --- # 均方根誤差(Root Mean Squared Error) 均方根誤差是均方誤差開根號後的數值,代表模型預測值與實際值之間差值的集中程度,單位與原始資料相同 ## 完整說明 均方根誤差是一種常用的模型評估指標,用於衡量預測值與實際值之間的差異程度。它是將預測誤差的平方和取平均後再開平方根得到的結果,數值越小代表模型的預測精度越高。均方根誤差對較大的誤差值更敏感,因此能更好地反映模型在預測過程中出現的極端偏差。 ## 常見問題 ### RMSE 的數值範圍是多少? RMSE 的數值範圍是非負實數,最小值為 0,代表模型完美預測。RMSE 沒有理論上的上限,其數值大小取決於數據的尺度和模型的預測誤差。數值越大,代表模型的預測誤差越大。 ### RMSE 可以用於比較不同模型的優劣嗎? 是的,在同一個數據集上,RMSE 可以用於比較不同模型的優劣。RMSE 越小的模型,通常代表預測準確性越高。但需要注意的是,RMSE 只能在相同尺度的數據集上進行比較。 ### 如何降低模型的 RMSE? 降低模型的 RMSE 可以通過多種方式實現,例如:增加訓練數據、調整模型參數、選擇更適合數據的模型、進行特徵工程、處理離群值等。具體方法取決於具體的問題和數據集。 --- 來源:https://aiterms.tw/terms/root-mean-squared-error 快查頁:https://aiterms.tw/terms/root-mean-squared-error 深度解說:https://aiterms.tw/learning/what-is-root-mean-squared-error --- # 均方誤差(Mean Squared Error) 均方誤差是預測值與真實值差距平方的平均值,能放大較大誤差的影響 ## 完整說明 均方誤差是一種常用的模型評估指標,用於衡量預測值與實際值之間的平均差異程度。它是將預測誤差的平方和取平均得到的結果,數值越小代表模型的預測精度越高。均方誤差易於計算且具有良好的數學性質,在迴歸問題中被廣泛應用於評估模型的性能。 ## 常見問題 ### 均方誤差的數值越小,代表模型預測越準確嗎? 是的,一般來說,均方誤差的數值越小,代表模型的預測值與真實值之間的差異越小,模型的預測準確度越高。數值為零代表完美預測。 ### 均方誤差可以用於比較不同模型的性能嗎? 可以。在相同的數據集上,可以使用均方誤差來比較不同模型的性能。均方誤差較小的模型通常被認為是更好的模型。但要注意,不同數據集上的均方誤差不具備直接可比性。 ### 均方誤差是否適用於所有類型的預測問題? 均方誤差主要適用於迴歸問題,即預測連續數值的問題。對於分類問題,通常使用其他的評估指標,例如準確率、精確率、召回率和 F1 分數等。 --- 來源:https://aiterms.tw/terms/mean-squared-error 快查頁:https://aiterms.tw/terms/mean-squared-error 深度解說:https://aiterms.tw/learning/what-is-mean-squared-error --- # 基因演算法(Genetic Algorithm) 基因演算法是一種模擬生物進化過程的優化算法,通過選擇、交叉和突變等操作,逐步演化出更優的解,用於解決複雜的搜索和優化問題。 ## 完整說明 基因演算法是一種基於自然選擇和遺傳學原理的優化算法。它模擬生物進化過程,通過選擇、交叉和突變等操作,逐步演化出更優的解。基因演算法適用於解決複雜的、非線性的、多峰值的搜索和優化問題,例如函數優化、組合優化、機器學習模型參數優化等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/genetic-algorithm 快查頁:https://aiterms.tw/terms/genetic-algorithm 深度解說:https://aiterms.tw/learning/what-is-genetic-algorithm --- # 基於會話推薦(Session-based Recommendation) 基於會話推薦利用使用者單次瀏覽會話內的行為序列,預測使用者下一步可能感興趣的項目,無需使用者歷史資料。 ## 完整說明 基於會話推薦 (Session-based Recommendation) 是一種推薦系統方法,它僅依賴於使用者當前瀏覽會話內的行為序列來預測使用者下一步可能感興趣的項目。與傳統推薦系統不同,它不需要使用者的長期歷史資料或個人資訊,因此能夠更好地保護使用者隱私,並解決新使用者和新項目的冷啟動問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/session-based-recommendation 快查頁:https://aiterms.tw/terms/session-based-recommendation 深度解說:https://aiterms.tw/learning/what-is-session-based-recommendation --- # 基準測試(Benchmark) 基準測試是用於評估和比較不同AI模型、演算法或系統性能的標準化方法,提供客觀的性能指標。 ## 完整說明 基準測試是指使用標準化的資料集和評估指標,來評估和比較不同AI模型、演算法或系統的性能。它提供了一個客觀的參考點,幫助研究人員和開發者了解不同方法的優劣,並促進技術的進步。基準測試的結果通常會公開發布,以便於比較和重現。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/benchmark 快查頁:https://aiterms.tw/terms/benchmark 深度解說:https://aiterms.tw/learning/what-is-benchmark --- # 基礎模型(Foundation Model) 基礎模型是使用大量未標記數據訓練的大型模型,可適應多種下游任務,展現出強大的泛化能力和遷移學習能力。 ## 完整說明 基礎模型(Foundation Model)是指使用極大量的未標記數據進行預訓練的大型模型。這些模型通常具有數十億甚至數千億個參數,能夠學習到通用的數據表示,並可以通過微調或 Prompt 工程快速適應各種下游任務,例如圖像分類、自然語言處理和語音辨識。基礎模型的核心優勢在於其強大的泛化能力和遷移學習能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/foundation-model 快查頁:https://aiterms.tw/terms/foundation-model 深度解說:https://aiterms.tw/learning/what-is-foundation-model --- # 多代理系統(Multi-Agent System) 多代理系統是由多個自主代理組成的系統,這些代理通過互動和協作來完成共同目標。 ## 完整說明 多代理系統是由多個自主代理組成的系統。這些代理通過互動和協作來完成共同目標。多代理系統用於解決複雜的、分佈式的問題,這些問題難以由單個代理解決。常見應用包括交通控制、供應鏈管理和機器人協作。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/multi-agent-system 快查頁:https://aiterms.tw/terms/multi-agent-system 深度解說:https://aiterms.tw/learning/what-is-multi-agent-system --- # 多任務學習(Multi-task Learning) 多任務學習是一種機器學習方法,旨在同時訓練一個模型來執行多個相關任務,以提升模型的泛化能力和效率。 ## 完整說明 多任務學習 (Multi-task Learning, MTL) 是一種機器學習方法,其目標是同時訓練一個模型來執行多個相關的任務。透過共享任務之間的知識,MTL 可以提升模型的泛化能力,減少對單一任務的過擬合,並加速學習過程。這種方法特別適用於任務之間存在共享特徵或結構的情況。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/multi-task-learning 快查頁:https://aiterms.tw/terms/multi-task-learning 深度解說:https://aiterms.tw/learning/what-is-multi-task-learning --- # 多模態學習(Multimodal Learning) 多模態學習是一種機器學習方法,旨在從多種不同類型(模態)的資料中學習,例如圖像、文字和音訊,以提升模型效能。 ## 完整說明 多模態學習是一種機器學習方法,用於整合和分析來自多種不同模態的資料,例如圖像、文字、音訊和影片。它能夠讓模型理解不同模態之間的關聯性,從而提升模型在各種任務中的效能,常見應用包括圖像描述、影片理解和跨模態檢索。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/multimodal-learning 快查頁:https://aiterms.tw/terms/multimodal-learning 深度解說:https://aiterms.tw/learning/what-is-multimodal-learning --- # 多跳推理(Multi-hop Reasoning) 多跳推理是指需要通過多個推理步驟才能得出結論的推理過程,模擬人類複雜的思考方式。 ## 完整說明 多跳推理是指需要通過多個推理步驟才能從已知信息中得出結論的推理過程。它模擬了人類進行複雜思考的方式,即將一個複雜的問題分解為多個簡單的子問題,然後逐步解決這些子問題,最終得出答案。多跳推理在問答系統、知識圖譜推理等領域有重要的應用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/multi-hop-reasoning 快查頁:https://aiterms.tw/terms/multi-hop-reasoning 深度解說:https://aiterms.tw/learning/what-is-multi-hop-reasoning --- # 大型語言模型(Large Language Model) 大型語言模型是以大量文字訓練的超大 Transformer 模型,擅長理解並生成自然語言 ## 完整說明 大型語言模型是一種基於深度學習的神經網路模型,擁有數十億甚至數千億的參數,能夠學習並生成人類語言。它能夠執行多種自然語言處理任務,例如文本生成、翻譯、問答等。在 iPAS 考試中,理解大型語言模型的架構、訓練方法以及應用場景是重要的考點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 大型語言模型需要多少訓練數據才能達到理想效果? 大型語言模型的效果與訓練數據量息息相關,通常需要數十億甚至數千億的 tokens 才能達到較好的效果。具體所需數據量還取決於模型的複雜度和任務的難度。 ### 大型語言模型的訓練成本有多高? 訓練一個大型語言模型的成本非常高昂,包括硬件成本、電力成本、人力成本等。根據模型的規模和訓練時間,成本可能從數十萬美元到數百萬美元不等。 ### 如何解決大型語言模型產生的幻覺問題? 解決大型語言模型產生的幻覺問題是一個持續研究的領域。一些方法包括使用更高質量的訓練數據、引入外部知識庫、使用更強大的模型架構、以及採用更有效的訓練策略。 --- 來源:https://aiterms.tw/terms/large-language-model 快查頁:https://aiterms.tw/terms/large-language-model 深度解說:https://aiterms.tw/learning/what-is-large-language-model --- # 奇異值分解(Singular Value Decomposition) 奇異值分解(SVD)是一種將矩陣分解為三個矩陣乘積的技術,廣泛應用於降維、推薦系統和資料壓縮等領域。 ## 完整說明 奇異值分解(SVD)是一種重要的矩陣分解方法,它將一個矩陣分解為三個矩陣的乘積:U、Σ 和 VT。其中,U 和 V 是正交矩陣,Σ 是一個對角矩陣,其對角線上的元素稱為奇異值。SVD 在資料降維、推薦系統、影像處理等領域有廣泛應用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/singular-value-decomposition 快查頁:https://aiterms.tw/terms/singular-value-decomposition 深度解說:https://aiterms.tw/learning/what-is-singular-value-decomposition --- # 季節性分解(Seasonal Decomposition) 季節性分解是一種時序分析技術,將時間序列分解為趨勢、季節性、週期性和殘差等成分,以便更好地理解和預測資料。 ## 完整說明 季節性分解是一種時序分析方法,旨在將時間序列資料分解為幾個組成部分,包括趨勢成分(長期變化)、季節性成分(重複的週期性模式)、週期性成分(更長期的波動)和殘差(無法解釋的隨機變異)。透過分解,我們可以更清楚地了解資料的底層結構,並提高預測的準確性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/seasonal-decomposition 快查頁:https://aiterms.tw/terms/seasonal-decomposition 深度解說:https://aiterms.tw/learning/what-is-seasonal-decomposition --- # 學習率(Learning Rate) 學習率是梯度下降中控制每次參數更新幅度的超參數,設定過大易震盪、過小則收斂緩慢 ## 完整說明 學習率是一種超參數,用於控制模型在每次迭代中更新權重的幅度。它決定了梯度下降算法的步長,影響模型收斂的速度和最終的準確性。過大的學習率可能導致模型震盪或發散,而過小的學習率則可能導致收斂速度過慢或陷入局部最小值。因此,選擇合適的學習率對於模型訓練至關重要。 ## 常見問題 ### 學習率過大會造成什麼影響? 學習率過大會導致模型在最佳解附近震盪,無法收斂到最小值。更嚴重的情況下,會使損失函數的值不斷增加,導致訓練過程發散,最終無法得到有效的模型。 ### 如何選擇合適的學習率? 選擇合適的學習率通常需要透過實驗。可以從一個較小的學習率開始(例如 0.001),然後逐漸增加,觀察損失函數的變化。也可以使用一些自動調整學習率的策略,例如學習率衰減或自適應優化演算法。 ### 學習率衰減是什麼?有哪幾種類型? 學習率衰減是指在訓練過程中逐漸降低學習率的策略。常見的類型包括:固定步長衰減(每隔一定迭代次數降低一次學習率)、指數衰減(學習率按指數函數遞減)和餘弦退火(學習率按餘弦函數變化)。使用學習率衰減可以幫助模型更精確地找到最佳解。 --- 來源:https://aiterms.tw/terms/learning-rate 快查頁:https://aiterms.tw/terms/learning-rate 深度解說:https://aiterms.tw/learning/what-is-learning-rate --- # 學習率排程(Learning Rate Scheduling) 學習率排程是一種在訓練過程中調整學習率的技術,旨在加速收斂、避免震盪,並提高模型的泛化能力。常見方法包括步階衰減、指數衰減和餘弦退火。 ## 完整說明 學習率排程 (Learning Rate Scheduling) 是一種在訓練神經網路時,隨著訓練進度調整學習率的技術。固定的學習率可能導致訓練初期收斂緩慢,或訓練後期在最優解附近震盪。學習率排程旨在通過動態調整學習率,以加速收斂、避免局部最小值,並提高模型的泛化能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/learning-rate-scheduling 快查頁:https://aiterms.tw/terms/learning-rate-scheduling 深度解說:https://aiterms.tw/learning/what-is-learning-rate-scheduling --- # 安全護欄(Guardrails) AI安全護欄是用於限制AI系統行為,確保其符合預期規範和倫理標準的機制,防止產生有害或不當的輸出。 ## 完整說明 AI安全護欄是指在AI系統中設置的一系列規則、限制和監控機制,旨在確保AI模型的行為符合預期,避免產生有害、不當或違反倫理的輸出。這些護欄可以應用於模型的輸入、輸出和內部運作,以提高AI系統的安全性、可靠性和可信度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/guardrails 快查頁:https://aiterms.tw/terms/guardrails 深度解說:https://aiterms.tw/learning/what-is-guardrails --- # 完形填空任務(Cloze Task) 完形填空任務是一種語言理解測試,透過移除文本中的部分詞彙,要求模型或人類填補缺失部分,以評估其對上下文的理解能力。 ## 完整說明 完形填空任務(Cloze Task)是一種評估語言理解能力的經典方法。它透過從一段文本中移除部分詞彙,並要求受試者(可以是人類或機器學習模型)填補這些缺失的詞彙。成功完成任務需要對上下文、語法和語義有深入的理解。完形填空任務廣泛應用於語言教學、閱讀理解評估以及自然語言處理模型的訓練和評估。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/cloze-task 快查頁:https://aiterms.tw/terms/cloze-task 深度解說:https://aiterms.tw/learning/what-is-cloze-task --- # 容器化技術(Containerization) 容器化技術是一種將應用程式及其所有依賴項打包到一個可移植容器中的技術,實現跨環境一致的部署。 ## 完整說明 容器化技術是一種作業系統層級的虛擬化方法,它將應用程式及其所有依賴項(例如程式庫、系統工具、運行時環境)打包到一個稱為容器的可移植單元中。容器與主機作業系統的核心隔離,但共享作業系統核心。這使得容器能夠在不同的環境中一致地運行,而無需修改應用程式程式碼。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/containerization 快查頁:https://aiterms.tw/terms/containerization 深度解說:https://aiterms.tw/learning/what-is-containerization --- # 密度分群(Density-Based Spatial Clustering) 密度分群是一種基於資料分布密度的分群方法,它能找出任意形狀的群集,並自動識別出噪訊 ## 完整說明 密度分群是一種非監督式機器學習演算法,用於識別資料集中基於密度的簇。它將簇定義為由高密度區域分隔的稠密相連點的集合。與傳統分群方法不同,密度分群不需要預先指定簇的數量,並且能夠有效地識別任意形狀的簇和雜訊點。常見的密度分群演算法包括 DBSCAN 和 OPTICS。 ## 常見問題 ### 密度分群的 ε 參數應該如何選擇? ε 參數的選擇取決於資料的密度和尺度。一個常用的方法是使用 k-距離圖。對於每一個資料點,計算其到第 k 個最近鄰居的距離,然後將這些距離排序並繪製成圖。ε 的值通常選擇在圖中出現明顯拐點的位置。 ### 密度分群的 MinPts 參數應該如何選擇? MinPts 參數的選擇也取決於資料的密度和維度。一個常用的經驗法則是將 MinPts 設定為資料維度 + 1。例如,如果資料是二維的,則 MinPts 可以設定為 3。較大的 MinPts 值可以減少噪訊的影響,但也可能導致一些密度較低的群集被忽略。 ### 密度分群可以處理非數值型資料嗎? 原始的 DBSCAN 演算法主要用於處理數值型資料。如果資料包含非數值型特徵,需要先將其轉換為數值型表示,例如使用 one-hot encoding 或 embedding 等方法。此外,也有一些針對非數值型資料的密度分群演算法,例如 OPTICS 和 HDBSCAN。 --- 來源:https://aiterms.tw/terms/density-based-spatial-clustering 快查頁:https://aiterms.tw/terms/density-based-spatial-clustering 深度解說:https://aiterms.tw/learning/what-is-density-based-spatial-clustering --- # 密集連接網路(DenseNet) DenseNet是一種深度學習模型,透過密集連接每一層到所有後續層,最大化層之間的資訊流動,增強特徵重用,減少梯度消失問題。 ## 完整說明 密集連接網路(DenseNet)是一種深度學習架構,其核心思想是最大化網路中層與層之間的信息流動。與傳統的卷積神經網路不同,DenseNet中的每一層都直接連接到所有後續層。這種密集連接的方式增強了特徵重用,減少了梯度消失問題,並允許網路學習更有效的特徵表示。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/densenet 快查頁:https://aiterms.tw/terms/densenet 深度解說:https://aiterms.tw/learning/what-is-densenet --- # 實體鏈接(Entity Linking) 實體鏈接是將文本中的實體提及項,連結到知識庫中對應實體的過程,以消除歧義並豐富文本的語義資訊。 ## 完整說明 實體鏈接(Entity Linking, EL)是一項自然語言處理任務,旨在將文本中提及的實體(例如人名、地名、組織機構等)連結到知識庫(例如維基百科、DBpedia)中對應的實體條目。這有助於消除實體提及項的歧義,並將文本與結構化的知識聯繫起來,從而提高文本理解和資訊檢索的準確性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/entity-linking 快查頁:https://aiterms.tw/terms/entity-linking 深度解說:https://aiterms.tw/learning/what-is-entity-linking --- # 專家混合模型(Mixture of Experts) 專家混合模型是一種機器學習技術,透過結合多個獨立的「專家」模型,針對不同輸入選擇性地激活特定專家,以提升模型整體效能。 ## 完整說明 專家混合模型是一種機器學習架構,用於提升模型容量和效能。它包含多個獨立的「專家」子模型和一個「門控網路」。門控網路根據輸入數據,決定激活哪些專家子模型,從而實現更精細化的模型決策。常見應用包括自然語言處理、語音辨識和電腦視覺。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mixture-of-experts 快查頁:https://aiterms.tw/terms/mixture-of-experts 深度解說:https://aiterms.tw/learning/what-is-mixture-of-experts --- # 對抗性攻擊(Adversarial Attack) 對抗性攻擊是指通過對輸入數據進行微小且不易察覺的修改,使AI模型產生錯誤輸出的攻擊方式,用於測試模型的魯棒性。 ## 完整說明 對抗性攻擊是一種針對AI模型的攻擊方式,通過對輸入數據進行微小且不易察覺的修改,使AI模型產生錯誤的輸出。這種攻擊方式能夠揭示AI模型的脆弱性,並用於測試模型的魯棒性。常見應用包括圖像識別、語音辨識和自然語言處理等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/adversarial-attack 快查頁:https://aiterms.tw/terms/adversarial-attack 深度解說:https://aiterms.tw/learning/what-is-adversarial-attack --- # 對抗性穩健(Adversarial Robustness) 對抗性穩健是指機器學習模型在面對惡意設計的對抗樣本時,仍能維持其預測準確性的能力,抵抗攻擊。 ## 完整說明 對抗性穩健性是指機器學習模型抵抗對抗性攻擊的能力。對抗性攻擊是指對輸入數據進行微小但精心設計的擾動,使模型產生錯誤的預測。一個具有良好對抗性穩健性的模型,即使在面對這些擾動時,也能保持其預測的準確性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/adversarial-robustness 快查頁:https://aiterms.tw/terms/adversarial-robustness 深度解說:https://aiterms.tw/learning/what-is-adversarial-robustness --- # 對數損失(Log Loss) 對數損失(Log Loss)是交叉熵損失在二元分類問題中的特殊形式,衡量模型預測機率與真實標籤之間的差異,數值越小代表模型表現越好。 ## 完整說明 對數損失(Log Loss),也稱為對數似然損失或交叉熵損失(Cross-entropy loss),是衡量分類模型預測結果的準確性的一種指標。它特別適用於輸出機率值的模型,例如邏輯迴歸。對數損失衡量的是模型預測的機率分佈與真實標籤之間的差異。損失值越小,表示模型的預測結果越接近真實情況。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/log-loss 快查頁:https://aiterms.tw/terms/log-loss 深度解說:https://aiterms.tw/learning/what-is-log-loss --- # 對比學習(Contrastive Learning) 對比學習是一種自監督學習方法,通過學習區分相似和不相似的樣本,從而提取資料的有效表示,無需人工標註。 ## 完整說明 對比學習是一種自監督學習方法,旨在通過學習區分相似(正樣本)和不相似(負樣本)的樣本,從而提取資料的有效表示。它不需要人工標註,而是利用資料本身的結構來生成訓練信號。對比學習在電腦視覺、自然語言處理等領域取得了顯著的成果。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/contrastive-learning 快查頁:https://aiterms.tw/terms/contrastive-learning 深度解說:https://aiterms.tw/learning/what-is-contrastive-learning --- # 對比語言圖像預訓練(CLIP) CLIP (Contrastive Language-Image Pre-training) 是一種透過對比學習,將圖像與文字描述連結的模型,能進行零樣本圖像分類,無需針對特定任務重新訓練。 ## 完整說明 CLIP (Contrastive Language-Image Pre-training) 是一種由 OpenAI 開發的視覺語言模型。它透過對比學習的方式,將圖像與文字描述連結起來,使得模型能夠理解圖像的語義。CLIP 能夠進行零樣本圖像分類,即在沒有任何訓練數據的情況下,將圖像分類到預定義的類別中。常見應用包括圖像檢索、圖像分類和圖像描述生成。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/clip 快查頁:https://aiterms.tw/terms/clip 深度解說:https://aiterms.tw/learning/what-is-clip --- # 對話式人工智慧(Conversational AI) 對話式人工智慧是指能透過自然語言與人類進行互動的AI系統,例如聊天機器人或語音助理,旨在提供更自然、直觀的互動體驗。 ## 完整說明 對話式人工智慧是一種利用自然語言處理(NLP)、機器學習和深度學習技術,使電腦系統能夠理解、處理並生成人類語言,從而與人類進行自然對話的技術。它涵蓋了聊天機器人、語音助理等應用,旨在模擬人類對話,提供資訊、完成任務或提供娛樂。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/conversational-ai 快查頁:https://aiterms.tw/terms/conversational-ai 深度解說:https://aiterms.tw/learning/what-is-conversational-ai --- # 對話系統(Dialogue System) 對話系統是一種能與人類進行自然語言互動的AI系統,目標是理解使用者意圖並提供適當的回應,完成特定任務或提供資訊。 ## 完整說明 對話系統是一種電腦系統,旨在模擬人類之間的對話。它接收使用者的自然語言輸入,理解其意圖,並產生適當的回應。對話系統的目標是提供自然、流暢且有用的互動體驗,可用於客戶服務、資訊檢索、任務執行等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/dialogue-system 快查頁:https://aiterms.tw/terms/dialogue-system 深度解說:https://aiterms.tw/learning/what-is-dialogue-system --- # 對齊校準(Alignment) 對齊校準是指使AI模型,特別是大型語言模型,的行為與人類意圖、價值觀和倫理規範相符的過程,降低潛在風險。 ## 完整說明 對齊校準是一種使AI模型,特別是大型語言模型(LLM),的行為與人類意圖、價值觀和倫理規範相符的過程。它用於確保模型輸出安全、有用且符合預期,能夠降低模型產生有害、不準確或不道德內容的風險。常見應用包括訓練模型避免產生偏見、提供可靠資訊以及遵循使用者指令。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/alignment 快查頁:https://aiterms.tw/terms/alignment 深度解說:https://aiterms.tw/learning/what-is-alignment --- # 少樣本學習(Few-shot Learning) 少樣本學習讓模型僅憑少數標記範例即可泛化至新任務,突破傳統機器學習對大量訓練資料的依賴 ## 完整說明 少樣本學習是一種機器學習方法,旨在僅使用少量標記樣本來訓練模型。它利用已有的知識或經驗,通過遷移學習或元學習等技術,快速適應新的任務。在 iPAS 中級考試中,少樣本學習是重要的考點,考察考生對於模型泛化能力和快速適應新環境的理解。少樣本學習能夠在資料稀缺的場景下發揮重要作用,例如新產品推薦或罕見疾病診斷。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 少樣本學習的「少」是指多少? 少樣本學習中的「少」是一個相對的概念,通常指的是每個類別只有 1 到 10 個樣本。具體數量取決於任務的複雜程度和模型的預訓練程度。如果預訓練模型已經具備了較強的泛化能力,可能只需要更少的樣本就能達到良好的效果。 ### 少樣本學習一定需要預訓練模型嗎? 雖然預訓練模型是少樣本學習中常用的方法,但並非絕對必要。也可以使用其他方法,例如基於度量的學習,直接學習樣本之間的相似性。不過,使用預訓練模型通常可以更快地達到更好的效果,因為模型已經具備了通用的知識。 ### 少樣本學習的性能瓶頸是什麼? 少樣本學習的性能瓶頸主要在於模型的泛化能力。由於訓練樣本有限,模型容易過度擬合訓練資料,導致在新數據上的表現不佳。因此,如何提高模型的泛化能力是少樣本學習研究的一個重要方向,例如使用正則化技術或資料增強方法。 --- 來源:https://aiterms.tw/terms/few-shot-learning 快查頁:https://aiterms.tw/terms/few-shot-learning 深度解說:https://aiterms.tw/learning/what-is-few-shot-learning --- # 層歸一化(Layer Normalization) 層歸一化是一種神經網路正規化技術,它在每個層級對所有神經元的激活值進行歸一化,以加速訓練並提高泛化能力。 ## 完整說明 層歸一化 (Layer Normalization) 是一種在深度學習中使用的正規化技術,它在每個訓練批次中,對特定層的所有神經元的激活值進行歸一化。與批次歸一化 (Batch Normalization) 不同,層歸一化是在每個樣本的層級上進行計算,而不是在整個批次上。這使得它在小批次大小或序列資料等情況下更有效。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/layer-normalization 快查頁:https://aiterms.tw/terms/layer-normalization 深度解說:https://aiterms.tw/learning/what-is-layer-normalization --- # 嵌入表示(Embedding) 嵌入表示將離散的文字或類別映射為連續稠密向量,讓模型能捕捉語義相似性並進行數學運算 ## 完整說明 嵌入表示是一種將高維度離散資料(如文字、圖像或圖形節點)轉換為低維度連續向量的技術。這些向量能夠捕捉原始資料的語義或結構信息,使得機器學習模型能夠更好地處理這些資料。在 iPAS 中級考試中,嵌入表示是重要的考點,考察考生對於詞嵌入、圖嵌入等技術的理解。嵌入表示廣泛應用於自然語言處理、推薦系統和知識圖譜等領域。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 嵌入層 (Embedding Layer) 和嵌入表示 (Embedding) 是一樣的東西嗎? 雖然名字很像,但嵌入層是神經網路中的一個特定層,負責將輸入的索引轉換成嵌入向量。嵌入表示則是更廣泛的概念,指的是將資料轉換成向量空間中的表示方式,嵌入層只是實現嵌入表示的一種方法。 ### 如何選擇嵌入向量的維度? 嵌入向量的維度選擇取決於多個因素,包括詞彙表的大小、資料的複雜度和計算資源的限制。一般來說,較大的詞彙表和較複雜的資料需要較高的維度,但同時也會增加計算成本。可以透過實驗來選擇最佳的維度。常用的方法是先設定幾個候選維度,然後比較模型在不同維度下的效能。 ### 嵌入表示可以應用於非文字資料嗎? 當然可以!雖然嵌入表示最初是在自然語言處理中發展起來的,但它也可以應用於其他類型的資料,例如圖像、音訊和結構化資料。關鍵是找到一種方法將這些資料轉換成可以嵌入到向量空間中的表示形式。例如,可以使用卷積神經網路 (CNN) 將圖像轉換成特徵向量,然後使用這些特徵向量作為嵌入表示。 --- 來源:https://aiterms.tw/terms/embedding 快查頁:https://aiterms.tw/terms/embedding 深度解說:https://aiterms.tw/learning/what-is-embedding --- # 工作流程自動化(Workflow Automation) 工作流程自動化是指利用技術自動執行重複性、基於規則的任務和流程,以提高效率、減少錯誤並釋放人力資源。 ## 完整說明 工作流程自動化是指使用軟體和技術來自動執行重複性、基於規則的任務和流程。它旨在簡化操作,提高效率,減少錯誤,並釋放人力資源,使員工能夠專注於更具戰略性和創造性的工作。工作流程自動化可以應用於各種業務流程,例如數據輸入、文件處理、批准流程和客戶服務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/workflow-automation 快查頁:https://aiterms.tw/terms/workflow-automation 深度解說:https://aiterms.tw/learning/what-is-workflow-automation --- # 工具使用能力(Tool Use) 工具使用能力是指大型語言模型利用外部工具(例如API、資料庫)來擴展其功能,完成更複雜任務的能力。 ## 完整說明 工具使用能力是指大型語言模型(LLM)能夠調用和利用外部工具(例如API、資料庫、計算器)來擴展其功能,從而完成更複雜、更具體的任務。這種能力使得LLM不再局限於其自身的知識庫,而是可以利用外部資源來獲取資訊、執行計算或執行其他操作。常見應用包括自動化工作流程、資料分析、程式碼生成。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/tool-use 快查頁:https://aiterms.tw/terms/tool-use 深度解說:https://aiterms.tw/learning/what-is-tool-use --- # 差分整合移動平均(ARIMA) ARIMA是一種廣泛使用的時間序列預測模型,結合了自迴歸、差分和移動平均三個部分,用於分析和預測時間序列資料。 ## 完整說明 ARIMA(差分整合移動平均模型)是一種統計分析模型,用於預測時間序列資料。它結合了自迴歸(AR)、整合(I,差分)和移動平均(MA)三個部分。ARIMA模型通過分析過去的資料點之間的相關性,來預測未來的數值。其核心思想是將時間序列資料視為隨機過程,並利用其自相關性進行建模和預測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/arima 快查頁:https://aiterms.tw/terms/arima 深度解說:https://aiterms.tw/learning/what-is-arima --- # 差分隱私(Differential Privacy) 差分隱私透過在統計查詢結果中注入隨機噪音,在公開資料的同時保護個別資料點的隱私 ## 完整說明 差分隱私是一種保護個人隱私的技術,通過在資料集中添加少量雜訊,使得在不洩露個體資訊的前提下,仍然可以進行有效的統計分析。差分隱私確保即使攻擊者擁有背景知識,也無法推斷出特定個體是否參與了資料集。在 iPAS 中級考試中,差分隱私是重要的考點,考察考生對於資料安全和隱私保護的理解。差分隱私在醫療、金融等敏感資料領域具有重要的應用價值。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 4%,屬於未分類考範圍。 ## 常見問題 ### 差分隱私中的隱私預算(ε)是什麼意思? 隱私預算(ε)是衡量差分隱私保護程度的關鍵參數。ε 值越小,隱私保護程度越高,但同時查詢結果的準確性也會受到影響。ε 值代表了攻擊者可以從查詢結果中獲取多少關於個別資料的資訊,因此需要謹慎設定。通常,ε 的取值範圍在 0.1 到 10 之間,具體取決於應用場景和隱私保護需求。 ### 差分隱私如何應用於機器學習模型的訓練? 差分隱私可以通過多種方式應用於機器學習模型的訓練,例如添加噪音到梯度、限制梯度的大小、或者使用差分隱私版本的優化演算法。這些方法旨在保護訓練數據的隱私,防止模型洩露訓練數據中的敏感資訊。例如,差分隱私隨機梯度下降(DP-SGD)是一種常用的方法,它通過添加噪音到每個批次的梯度來實現差分隱私。 ### 差分隱私在實務應用中面臨哪些挑戰? 差分隱私在實務應用中面臨多個挑戰,包括準確性損失、隱私預算分配、複雜性、以及可解釋性。添加噪音會降低查詢結果或模型的準確性,需要在隱私保護和準確性之間進行權衡。此外,隱私預算需要在不同的查詢或模型訓練步驟之間進行合理分配,以確保整體的隱私保護效果。實施差分隱私需要專業知識和技能,並且可能影響模型的可解釋性。 --- 來源:https://aiterms.tw/terms/differential-privacy 快查頁:https://aiterms.tw/terms/differential-privacy 深度解說:https://aiterms.tw/learning/what-is-differential-privacy --- # 常態分佈(Normal Distribution) 常態分佈是一種連續機率分佈,其機率密度函數呈鐘形曲線,平均數、中位數和眾數相等,數據集中在平均值附近。 ## 完整說明 常態分佈,又稱高斯分佈,是一種非常重要的連續機率分佈。其機率密度函數呈鐘形曲線,左右對稱,平均數、中位數和眾數相等。常態分佈廣泛應用於統計學、自然科學和社會科學,用於描述大量獨立隨機變數之和的分布。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/normal-distribution 快查頁:https://aiterms.tw/terms/normal-distribution 深度解說:https://aiterms.tw/learning/what-is-normal-distribution --- # 平均絕對誤差(Mean Absolute Error) 平均絕對誤差(MAE)是衡量預測值與實際值之間平均絕對差異的指標,數值越小代表模型預測越準確。 ## 完整說明 平均絕對誤差(Mean Absolute Error,MAE)是一種常用的迴歸模型評估指標,它計算的是預測值與實際值之間差異的絕對值的平均數。MAE可以直觀地反映預測誤差的大小,數值越小表示模型的預測精度越高。MAE對所有誤差都給予相同的權重,因此不易受到極端值的影響。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mean-absolute-error 快查頁:https://aiterms.tw/terms/mean-absolute-error 深度解說:https://aiterms.tw/learning/what-is-mean-absolute-error --- # 序列到序列模型(Seq2Seq) Seq2Seq模型是一種將一個序列轉換為另一個序列的深度學習模型,廣泛應用於機器翻譯、文本摘要、語音辨識等任務。 ## 完整說明 Seq2Seq模型由編碼器(Encoder)和解碼器(Decoder)組成。編碼器將輸入序列轉換為一個固定長度的向量表示,解碼器則將這個向量表示轉換為目標序列。這種模型結構使得Seq2Seq模型能夠處理不同長度的輸入和輸出序列。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/seq2seq 快查頁:https://aiterms.tw/terms/seq2seq 深度解說:https://aiterms.tw/learning/what-is-seq2seq --- # 弱監督學習(Weak Supervision) 弱監督學習利用不精確、不完整或帶有雜訊的標籤資料來訓練機器學習模型,降低對大量精確標註資料的依賴。 ## 完整說明 弱監督學習是一種機器學習方法,旨在利用不完全、不準確或帶有雜訊的標籤資料來訓練模型。它通過使用各種弱監督源(例如,啟發式規則、知識圖譜或多個標註者)來生成標籤,從而減少對大量手動標註資料的需求,並降低標註成本。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/weak-supervision 快查頁:https://aiterms.tw/terms/weak-supervision 深度解說:https://aiterms.tw/learning/what-is-weak-supervision --- # 張量處理單元(TPU) 張量處理單元(TPU)是Google專為加速機器學習工作負載而設計的客製化硬體加速器,尤其擅長處理張量運算,是深度學習的利器。 ## 完整說明 張量處理單元(TPU)是Google開發的客製化硬體加速器,專為加速機器學習工作負載而設計。TPU針對張量運算進行了優化,張量是機器學習模型中使用的多維陣列。TPU在深度學習模型的訓練和推論方面表現出色,尤其是在Google的TensorFlow框架中。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/tpu 快查頁:https://aiterms.tw/terms/tpu 深度解說:https://aiterms.tw/learning/what-is-tpu --- # 強化學習(Reinforcement Learning) 強化學習是一種讓 AI 透過與環境互動,從獎勵和懲罰中學習,進而找到最佳行動策略的方法 ## 完整說明 強化學習是一種機器學習方法,用於訓練智能體在環境中做出決策以最大化累積獎勵。智能體通過與環境互動,不斷試錯學習最佳策略。在 iPAS 初級考試中,強化學習的基本概念、獎勵函數設計以及常見演算法(如 Q-learning)是重要的考點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - 各類學習範式的定義與比較(佔 45%) - 適用場景判斷(佔 35%) - 演算法優缺點分析(佔 20%) ## 常見問題 ### 強化學習中,獎勵函數設計錯誤會導致什麼問題? 獎勵函數設計錯誤可能會導致智能體學到不符合預期的行為,例如為了獲得更高的獎勵而採取不安全的或不道德的行動。因此,在設計獎勵函數時需要仔細考慮,確保其能夠反映問題的本質,並引導智能體學習到正確的策略。 ### DQN(Deep Q-Network)在強化學習中扮演什麼角色? DQN 是一種結合了深度學習和 Q-learning 的強化學習演算法。它使用深度神經網路來近似 Q 函數,從而可以處理高維度的狀態空間。DQN 在許多複雜的環境中都取得了很好的效果,例如 Atari 遊戲。 ### 強化學習在自動駕駛中的應用有哪些挑戰? 在自動駕駛中應用強化學習的主要挑戰包括安全性、探索與利用的平衡以及獎勵函數的設計。需要確保智能體在學習過程中不會採取危險的行為,並且能夠有效地探索新的策略,同時避免過度探索。獎勵函數需要能夠反映駕駛的安全性、效率和舒適性。 --- 來源:https://aiterms.tw/terms/reinforcement-learning 快查頁:https://aiterms.tw/terms/reinforcement-learning 深度解說:https://aiterms.tw/learning/what-is-reinforcement-learning --- # 影像分割(Image Segmentation) 影像分割是一種電腦視覺技術,將影像劃分為多個區域或物件,以便分析或理解影像內容,常用於醫學影像分析、自動駕駛等。 ## 完整說明 影像分割是一種電腦視覺技術,用於將數位影像劃分為多個具有語義意義的區域或物件。其目的是簡化影像表示,使其更易於分析。常見應用包括醫學影像分析以識別腫瘤、自動駕駛以識別道路和行人、以及衛星影像分析以識別土地利用類型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/image-segmentation 快查頁:https://aiterms.tw/terms/image-segmentation 深度解說:https://aiterms.tw/learning/what-is-image-segmentation --- # 後門攻擊(Backdoor Attack) 後門攻擊是一種針對機器學習模型的惡意攻擊,攻擊者在模型中植入後門,使其在特定觸發條件下產生預設的錯誤輸出。 ## 完整說明 後門攻擊是一種針對機器學習模型的安全威脅。攻擊者會在模型訓練過程中,悄悄地植入惡意的觸發器或後門。當模型遇到這些觸發器時,即使輸入看似正常,模型也會產生攻擊者預先設定的錯誤輸出,從而達到攻擊目的。這種攻擊難以察覺,對AI系統的可靠性構成嚴重威脅。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/backdoor-attack 快查頁:https://aiterms.tw/terms/backdoor-attack 深度解說:https://aiterms.tw/learning/what-is-backdoor-attack --- # 循環神經網路(Recurrent Neural Network) 循環神經網路是一種具備「記憶」功能的神經網路,其能處理序列資料,並將前一步的輸出回饋至下一步 ## 完整說明 循環神經網路是一種專門處理序列資料的神經網路結構,用於捕捉時間序列中的依賴關係。它通過循環連接,將前一時間步的資訊傳遞到當前時間步,適用於自然語言處理、語音辨識等任務。在 iPAS 中級考試中,RNN 的原理、LSTM 和 GRU 等變體,以及梯度消失問題是需要掌握的重點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### RNN 中 LSTM 和 GRU 的主要區別是什麼? LSTM (Long Short-Term Memory) 擁有更複雜的結構,包含輸入閘、遺忘閘、輸出閘和細胞狀態,能更精確地控制資訊的流動。GRU (Gated Recurrent Unit) 結構較為簡化,只有更新閘和重置閘,訓練速度通常更快,但可能在處理複雜序列時表現略遜於 LSTM。選擇哪種模型取決於具體任務和資料集。 ### 如何解決 RNN 中的梯度消失問題? 梯度消失問題可以使用以下幾種方法緩解:使用 LSTM 或 GRU 等結構,它們的閘控機制有助於梯度傳播;使用 ReLU 等激活函數,避免梯度飽和;使用梯度裁剪技術,限制梯度的最大值;使用批次正規化,加速訓練並提高模型的穩定性。 ### RNN 模型中的 '序列長度' (sequence length) 指的是什麼? 序列長度指的是輸入 RNN 的序列資料中,單個序列包含的元素數量。例如,在處理文本時,序列長度可能是一句話中的字詞數量;在處理時間序列資料時,序列長度可能是時間窗口的大小。選擇合適的序列長度對於模型的性能至關重要,過短可能丟失上下文資訊,過長則會增加計算複雜度。 --- 來源:https://aiterms.tw/terms/recurrent-neural-network 快查頁:https://aiterms.tw/terms/recurrent-neural-network 深度解說:https://aiterms.tw/learning/what-is-recurrent-neural-network --- # 微調(Fine-tuning) 微調在預訓練模型基礎上,以少量特定領域資料繼續訓練,使通用模型適應特定任務需求 ## 完整說明 微調是一種遷移學習技術,用於將預訓練模型應用於新的任務或資料集。它通過在預訓練模型的基礎上,使用新的資料集進行少量訓練,以調整模型參數,使其適應新的任務。在 iPAS 中級考試中,微調的原理、優缺點,以及如何選擇合適的預訓練模型和微調策略是重要的考點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 微調的學習率應該如何設定? 微調時,學習率通常需要比從頭訓練時更小。建議從較小的學習率開始嘗試,例如 1e-4 或 1e-5,然後根據驗證集的性能進行調整。如果模型性能提升緩慢,可以適當增大學習率;如果模型性能下降,則應減小學習率。 也可以使用學習率衰減策略,例如在訓練過程中逐漸減小學習率。 ### 凍結多少層比較合適? 凍結多少層取決於預訓練模型與目標任務的相似程度。如果目標任務與預訓練模型的任務非常相似,可以只訓練輸出層;如果目標任務與預訓練模型的任務差異較大,則需要訓練更多的層。 一般來說,可以先凍結較底層的層,然後逐漸解凍更多的層,觀察模型性能的變化,最終選擇一個合適的凍結層數。 ### 如何避免微調時的過度擬合? 避免過度擬合的方法有很多,包括使用正則化技術(例如 L1 或 L2 正則化)、資料增強、提前停止訓練等。 此外,還可以使用 Dropout 技術,隨機丟棄一部分神經元,以降低模型的複雜度。 選擇合適的超參數也是避免過度擬合的重要手段。 --- 來源:https://aiterms.tw/terms/fine-tuning 快查頁:https://aiterms.tw/terms/fine-tuning 深度解說:https://aiterms.tw/learning/what-is-fine-tuning --- # 思維鏈(Chain-of-Thought) 思維鏈是一種讓大型語言模型逐步推理,而非直接給出答案,以提升複雜問題解答正確率的方法 ## 完整說明 思維鏈是一種 Prompt 工程技術,用於引導大型語言模型逐步推理,產生更準確和可解釋的答案。它通過在 Prompt 中加入中間推理步驟的範例,鼓勵模型模仿人類的思考過程,提高複雜問題的解決能力。思維鏈尤其適用於需要多步驟推理的任務,例如數學問題、常識推理等。 ## 常見問題 ### 思維鏈是否適用於所有語言模型? 思維鏈主要應用於大型語言模型,對於小型或能力較弱的模型,效果可能不明顯。因為思維鏈需要模型具備一定的推理能力和知識儲備,才能有效地生成中間推理步驟。 ### 思維鏈會增加模型的偏見嗎? 如果用於訓練或示範思維鏈的資料集本身存在偏見,那麼模型在推理過程中也可能放大這些偏見。因此,需要仔細審查和清洗訓練資料,確保其公平性和客觀性。 ### 思維鏈的未來發展趨勢是什麼? 未來的發展趨勢包括自動化提示語設計、更高效的推理方法、以及將思維鏈與其他技術(例如知識圖譜、強化學習)結合,以進一步提升 LLM 在複雜任務中的表現。 --- 來源:https://aiterms.tw/terms/chain-of-thought 快查頁:https://aiterms.tw/terms/chain-of-thought 深度解說:https://aiterms.tw/learning/what-is-chain-of-thought --- # 思維鏈提示(Chain-of-Thought Prompting) 思維鏈提示是一種Prompt工程技術,透過引導模型逐步推理,提升複雜問題的解答品質與可解釋性。 ## 完整說明 思維鏈提示 (Chain-of-Thought Prompting) 是一種 Prompt 工程技術,用於提升大型語言模型在複雜推理任務上的表現。它透過在 Prompt 中加入一系列中間推理步驟的範例,引導模型逐步思考,模仿人類的解題思路,從而提高解答的準確性和可解釋性。常見應用包括數學推理、常識推理和符號推理。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/chain-of-thought-prompting 快查頁:https://aiterms.tw/terms/chain-of-thought-prompting 深度解說:https://aiterms.tw/learning/what-is-chain-of-thought-prompting --- # 情感分析(Sentiment Analysis) 情感分析是一種自然語言處理技術,用於識別和提取文本中的主觀情感,例如正面、負面或中性情緒,應用於輿情監控、客戶回饋分析等。 ## 完整說明 情感分析(Sentiment Analysis),又稱意見挖掘(Opinion Mining),是一種自然語言處理(NLP)技術,旨在識別和提取文本中的主觀情感、態度或情緒。它通過分析文本中的詞語、短語和上下文,判斷作者或說話者對特定主題、產品、服務或事件的情感傾向,通常分為正面、負面或中性三種類型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sentiment-analysis 快查頁:https://aiterms.tw/terms/sentiment-analysis 深度解說:https://aiterms.tw/learning/what-is-sentiment-analysis --- # 惡意軟體偵測(Malware Detection) 惡意軟體偵測是利用AI技術識別並阻止惡意軟體感染系統的過程,旨在保護電腦、網路和資料免受損害。 ## 完整說明 惡意軟體偵測利用機器學習、深度學習等AI技術,分析檔案、程式碼和網路流量,識別惡意軟體的特徵和行為模式,從而預防病毒、蠕蟲、木馬程式等惡意軟體對系統造成損害。有效的惡意軟體偵測是資訊安全的重要組成部分。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/malware-detection 快查頁:https://aiterms.tw/terms/malware-detection 深度解說:https://aiterms.tw/learning/what-is-malware-detection --- # 意圖分類(Intent Classification) 意圖分類是自然語言處理中的一項任務,旨在將一段文字(例如使用者查詢)分類到預定義的意圖類別中,以理解使用者的目的。 ## 完整說明 意圖分類是自然語言理解(NLU)中的一項核心任務,其目標是根據給定的文本輸入(例如使用者查詢或句子)自動識別使用者的意圖。意圖代表使用者希望達成的目標或目的,例如「查詢天氣」、「訂購披薩」或「播放音樂」。意圖分類是構建對話系統、聊天機器人和其他自然語言應用程序的關鍵組成部分。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/intent-classification 快查頁:https://aiterms.tw/terms/intent-classification 深度解說:https://aiterms.tw/learning/what-is-intent-classification --- # 感知器(Perceptron) 感知器是最簡單的神經網路模型,模擬生物神經元,接收輸入、加權求和、通過激活函數輸出,用於二元分類。 ## 完整說明 感知器是一種二元線性分類器,也是最簡單的前饋神經網路。它接收多個輸入,每個輸入都有一個權重,將這些加權輸入求和,然後通過一個激活函數(通常是階躍函數或符號函數)來產生一個二元輸出。感知器主要用於解決線性可分的問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/perceptron 快查頁:https://aiterms.tw/terms/perceptron 深度解說:https://aiterms.tw/learning/what-is-perceptron --- # 憲法式AI原則(Constitutional AI Principles) 憲法式AI原則是一種透過明確的價值觀或「憲法」來引導AI系統行為的方法,旨在確保AI的輸出符合人類的期望和倫理標準。 ## 完整說明 憲法式AI原則是一種AI倫理治理方法,它使用一套明確定義的價值觀或「憲法」來約束AI系統的行為。這種方法旨在讓AI的決策過程更加透明、可預測,並與人類的倫理標準保持一致。透過這種方式,可以減少AI產生有害或不當輸出的風險,並提高人們對AI系統的信任。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/constitutional-ai-principles 快查頁:https://aiterms.tw/terms/constitutional-ai-principles 深度解說:https://aiterms.tw/learning/what-is-constitutional-ai-principles --- # 成員推斷攻擊(Membership Inference Attack) 成員推斷攻擊旨在判斷特定資料點是否曾被用於訓練機器學習模型。攻擊者利用模型輸出來推斷訓練資料的成員關係,可能洩漏隱私資訊。 ## 完整說明 成員推斷攻擊(Membership Inference Attack, MIA)是一種隱私攻擊,攻擊者試圖確定給定的資料記錄是否曾被用於訓練目標機器學習模型。攻擊者通常擁有目標模型的訪問權限(例如,通過API),並觀察模型對不同輸入的輸出。通過分析這些輸出,攻擊者可以推斷出訓練資料的成員關係,從而可能洩漏敏感資訊。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/membership-inference-attack 快查頁:https://aiterms.tw/terms/membership-inference-attack 深度解說:https://aiterms.tw/learning/what-is-membership-inference-attack --- # 批次大小(Batch Size) 批次大小是訓練時每次更新模型參數所使用的樣本數,直接影響訓練速度、記憶體用量與模型收斂穩定性 ## 完整說明 批次大小是指在機器學習模型訓練過程中,每次迭代使用的樣本數量。較大的批次大小可以加速訓練過程,但可能導致泛化能力下降;較小的批次大小可以提高泛化能力,但訓練速度較慢。選擇合適的批次大小需要在訓練速度和模型性能之間進行權衡。 ## 常見問題 ### 批次大小如何影響模型的泛化能力? 較小的批次大小通常可以提高模型的泛化能力,因為它可以讓模型探索更多的解空間,避免陷入局部最小值。但過小的批次大小也可能導致訓練過程不穩定。 ### 如何選擇最佳的批次大小? 選擇最佳的批次大小通常需要進行實驗。可以從較小的批次大小開始,逐步增加,並觀察模型在驗證集上的效能。可以使用網格搜索或隨機搜索等方法來尋找最佳的批次大小。 ### 批次大小和學習率之間有什麼關係? 批次大小和學習率之間存在一定的關係。通常來說,如果使用較大的批次大小,需要相應地調整學習率,以避免訓練過程發散。可以使用學習率調整策略,例如學習率衰減,來提高模型的效能。 --- 來源:https://aiterms.tw/terms/batch-size 快查頁:https://aiterms.tw/terms/batch-size 深度解說:https://aiterms.tw/learning/what-is-batch-size --- # 批次推論(Batch Inference) 批次推論是指將大量資料一次性輸入模型進行預測,適用於對延遲不敏感的場景,例如定期報表生成或離線資料分析。 ## 完整說明 批次推論是一種模型部署策略,它將大量輸入資料收集起來,然後一次性地將這些資料輸入到已訓練好的機器學習模型中進行預測。這種方法適用於對延遲要求不高的應用,例如定期生成報告、離線資料分析或大規模資料的預處理。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/batch-inference 快查頁:https://aiterms.tw/terms/batch-inference 深度解說:https://aiterms.tw/learning/what-is-batch-inference --- # 批次正規化(Batch Normalization) 批次正規化是一種標準化技巧,針對每層網路的輸入進行調整,使訓練過程更穩定,並允許使用較大的學習率 ## 完整說明 批次正規化是一種用於加速深度神經網路訓練的技術。它通過在每個訓練批次中對激活函數的輸入進行標準化,來減少內部協變量偏移,從而提高模型的穩定性和收斂速度。批次正規化能夠讓模型使用更高的學習率,並減少對初始化參數的敏感度。在 iPAS 考試中,批次正規化是深度學習模型訓練中重要的概念,需要理解其原理和應用。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 批次正規化在推理階段是如何運作的? 在推理階段,我們不再計算批次的均值和方差,而是使用訓練階段計算得到的均值和方差的移動平均值。這些移動平均值會在訓練過程中不斷更新,並用於對輸入資料進行標準化。這樣可以確保推理階段的資料分佈與訓練階段一致,從而提高模型的準確率。 ### 批次正規化會影響模型的泛化能力嗎? 批次正規化通常可以提高模型的泛化能力。通過減少內部協變異數偏移,批次正規化可以使模型更加穩定,並且對資料分佈的變化更加魯棒。然而,過度使用批次正規化也可能導致過擬合,因此需要謹慎調整相關的超參數。 ### 如何選擇批次正規化的位置? 批次正規化通常放置在激活函數之前或之後。研究表明,將批次正規化放置在激活函數之前通常效果更好,因為它可以使激活函數的輸入更加穩定,從而提高模型的效能。然而,具體的最佳位置可能取決於具體的模型架構和資料集。 --- 來源:https://aiterms.tw/terms/batch-normalization 快查頁:https://aiterms.tw/terms/batch-normalization 深度解說:https://aiterms.tw/learning/what-is-batch-normalization --- # 投資組合最佳化(Portfolio Optimization) 投資組合最佳化利用數學模型,在給定的風險承受度下,尋求最大化投資回報或在給定的回報目標下,最小化投資風險。 ## 完整說明 投資組合最佳化是一種量化投資策略,旨在構建一個在特定約束條件下,能夠實現最佳風險調整後回報的投資組合。它通常涉及使用數學模型和演算法,根據投資者的風險偏好、投資目標和市場預期,來選擇和配置不同的資產。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/portfolio-optimization 快查頁:https://aiterms.tw/terms/portfolio-optimization 深度解說:https://aiterms.tw/learning/what-is-portfolio-optimization --- # 拉格朗日乘數(Lagrange Multiplier) 拉格朗日乘數是一種尋找約束條件下函數極值的方法。它引入拉格朗日函數,將約束條件納入目標函數,從而將約束優化問題轉化為無約束優化問題。 ## 完整說明 拉格朗日乘數法是一種在約束條件下尋找函數局部最大值和最小值的策略。它通過引入拉格朗日乘數,將約束條件添加到目標函數中,形成拉格朗日函數。然後,通過求解拉格朗日函數的駐點,即可找到滿足約束條件的極值點。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/lagrange-multiplier 快查頁:https://aiterms.tw/terms/lagrange-multiplier 深度解說:https://aiterms.tw/learning/what-is-lagrange-multiplier --- # 持續學習(Continual Learning) 持續學習旨在使AI模型能夠在不遺忘先前知識的情況下,逐步學習新的任務和資料,模擬人類終身學習的能力。 ## 完整說明 持續學習(Continual Learning),又稱終身學習(Lifelong Learning),是一種機器學習範式,旨在開發能夠隨著時間推移,從不斷變化的資料流中學習新任務,同時保留先前學習知識的模型。它克服了災難性遺忘問題,使模型更具適應性和泛化能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/continual-learning 快查頁:https://aiterms.tw/terms/continual-learning 深度解說:https://aiterms.tw/learning/what-is-continual-learning --- # 指代消解(Anaphora Resolution) 指代消解是自然語言處理中的一項任務,旨在確定文本中代詞或其他指稱語所指代的先行詞,以理解文本的完整含義。 ## 完整說明 指代消解(Anaphora Resolution)是自然語言處理(NLP)中的一項關鍵任務,其目標是識別文本中指稱語(例如代詞、名詞短語)所指向的先行詞(antecedent)。準確的指代消解對於理解文本的連貫性和完整含義至關重要,並廣泛應用於機器翻譯、問答系統和文本摘要等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/anaphora-resolution 快查頁:https://aiterms.tw/terms/anaphora-resolution 深度解說:https://aiterms.tw/learning/what-is-anaphora-resolution --- # 指令微調(Instruction Tuning) 指令微調是一種利用特定格式指令資料集,微調預訓練語言模型,使其更精確理解並執行人類指令的技術。 ## 完整說明 指令微調是一種模型訓練方法,用於提升大型語言模型遵循人類指令的能力。它利用包含輸入指令和期望輸出的資料集,對預訓練模型進行微調,使其能夠更好地理解指令意圖並產生相應的結果。常見應用包括提升問答系統、文本摘要和程式碼生成的性能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/instruction-tuning 快查頁:https://aiterms.tw/terms/instruction-tuning 深度解說:https://aiterms.tw/learning/what-is-instruction-tuning --- # 指數平滑法(Exponential Smoothing) 指數平滑法是一系列時序預測方法,使用加權平均數,其中權重隨著時間的推移呈指數衰減,更重視近期觀測值。 ## 完整說明 指數平滑法是一類用於時間序列資料預測的技術,它使用加權平均數,其中權重隨著時間的推移呈指數衰減。這意味著最近的觀測值比過去的觀測值具有更大的影響力。指數平滑法易於實現且計算效率高,使其成為許多應用中的熱門選擇。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/exponential-smoothing 快查頁:https://aiterms.tw/terms/exponential-smoothing 深度解說:https://aiterms.tw/learning/what-is-exponential-smoothing --- # 探索與利用(Exploration vs Exploitation) 探索與利用是強化學習中的權衡,探索是指嘗試新動作以發現潛在的更好策略,利用是指使用已知最佳策略以獲得最大獎勵。 ## 完整說明 在強化學習中,探索與利用 (Exploration vs Exploitation) 是一種基本的權衡。探索是指智能體嘗試新的、未知的動作,以發現潛在的更好策略。利用是指智能體使用當前已知的最佳策略,以獲得最大的累積獎勵。智能體需要在探索和利用之間找到平衡,才能在長期內獲得最佳性能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/exploration-vs-exploitation 快查頁:https://aiterms.tw/terms/exploration-vs-exploitation 深度解說:https://aiterms.tw/learning/what-is-exploration-vs-exploitation --- # 控制網路(ControlNet) ControlNet 是一種神經網路結構,用於控制大型擴散模型,例如 Stable Diffusion,以實現更精確的圖像生成控制,例如基於草圖或邊緣圖生成圖像。 ## 完整說明 ControlNet 是一種神經網路結構,旨在為大型擴散模型(例如 Stable Diffusion)添加額外的控制條件。它通過複製擴散模型的權重並添加可訓練的副本來實現,允許使用者基於各種輸入條件(例如草圖、邊緣圖、深度圖等)更精確地控制圖像生成過程。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/controlnet 快查頁:https://aiterms.tw/terms/controlnet 深度解說:https://aiterms.tw/learning/what-is-controlnet --- # 推測解碼(Speculative Decoding) 推測解碼是一種加速大型語言模型推論速度的技術,透過小型模型預測多個token,再由大型模型驗證,減少計算量。 ## 完整說明 推測解碼是一種加速大型語言模型(LLM)推論速度的技術。它利用一個較小、速度較快的「草稿模型」來預測多個可能的token序列,然後使用較大、更準確的LLM(稱為「驗證模型」)並行驗證這些預測。如果預測正確,則直接採用,錯誤則使用驗證模型的結果。此方法顯著減少了大型模型的計算需求,從而提高了整體推論速度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/speculative-decoding 快查頁:https://aiterms.tw/terms/speculative-decoding 深度解說:https://aiterms.tw/learning/what-is-speculative-decoding --- # 推理能力(Reasoning) 推理能力是指AI系統基於已知資訊和規則,進行邏輯推導,得出結論或解決問題的能力。是AI模擬人類智慧的關鍵組成部分。 ## 完整說明 推理能力是AI系統的核心能力之一,它使AI能夠超越單純的模式識別和資料回溯,進而理解、分析和解決複雜問題。推理涉及運用邏輯、知識和經驗,從已知的事實或前提中推導出新的結論或預測。有效的推理能力是AI實現自主決策和適應未知環境的基礎。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/reasoning 快查頁:https://aiterms.tw/terms/reasoning 深度解說:https://aiterms.tw/learning/what-is-reasoning --- # 推薦系統(Recommender System) 推薦系統是一種利用演算法預測使用者對物品偏好的資訊過濾系統,旨在幫助使用者發現感興趣的內容,並提升平台互動與銷售。 ## 完整說明 推薦系統是一種資訊過濾系統,它利用演算法和數據分析,預測使用者對特定物品或內容的偏好。其目標是為使用者提供個性化的推薦,幫助他們發現感興趣的內容,同時提升平台的用戶參與度、內容消費量和銷售額。推薦系統廣泛應用於電商、影音平台、社交媒體等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/recommender-system 快查頁:https://aiterms.tw/terms/recommender-system 深度解說:https://aiterms.tw/learning/what-is-recommender-system --- # 推論(Inference) 推論是指利用已訓練好的機器學習模型,對新的、未曾見過的資料進行預測或判斷的過程。是模型部署後的核心環節。 ## 完整說明 在機器學習中,推論是指使用已訓練好的模型,基於輸入資料產生預測結果的過程。它代表了模型在訓練階段學習到的知識和模式的應用,將模型部署到實際應用中,對新數據進行分析和預測,以解決實際問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/inference 快查頁:https://aiterms.tw/terms/inference 深度解說:https://aiterms.tw/learning/what-is-inference --- # 推論最佳化(Inference Optimization) 推論最佳化旨在提升已訓練模型的推論速度、降低資源消耗,使其更有效率地部署於實際應用中。 ## 完整說明 推論最佳化是指在模型部署階段,透過各種技術手段,提升已訓練完成的機器學習或深度學習模型在進行預測(推論)時的效率。其目標是降低延遲、減少計算資源消耗,並提高吞吐量,從而使模型能夠更快速、更經濟地服務於實際應用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/inference-optimization 快查頁:https://aiterms.tw/terms/inference-optimization 深度解說:https://aiterms.tw/learning/what-is-inference-optimization --- # 提前終止(Early Stopping) 提前終止是一種訓練技巧,藉由監控驗證損失,在模型過擬合前及早停止訓練 ## 完整說明 提前終止是一種防止模型過擬合的策略。它通過監控模型在驗證集上的性能,當驗證集上的性能開始下降時,停止訓練過程。這樣可以避免模型過度學習訓練資料,提高模型在未見資料上的泛化能力。提前終止是一種簡單而有效的正則化方法,不需要額外的計算成本。 ## 常見問題 ### 提前終止會影響模型的偏差嗎? 是的,過早的提前終止可能導致模型欠擬合 (high bias),因為模型還沒有充分學習訓練資料的特徵。因此,選擇合適的耐心值至關重要,需要在偏差和方差之間取得平衡。 ### 提前終止如何與交叉驗證結合使用? 在 k 折交叉驗證中,可以對每一折的訓練都應用提前終止。然後,可以根據每一折的驗證結果來選擇最佳的提前終止策略,例如選擇平均驗證損失最小的 epoch。 ### 提前終止是否適用於所有類型的機器學習模型? 提前終止主要應用於需要迭代訓練的模型,例如神經網路、梯度提升樹等。對於不需要迭代訓練的模型,例如線性迴歸,提前終止並不適用。 --- 來源:https://aiterms.tw/terms/early-stopping 快查頁:https://aiterms.tw/terms/early-stopping 深度解說:https://aiterms.tw/learning/what-is-early-stopping --- # 提升算法(Boosting) Boosting 是一種集成學習技術,透過迭代訓練一系列弱學習器,每個學習器都試圖糾正前一個學習器的錯誤,最終將它們組合起來形成一個強學習器。 ## 完整說明 Boosting 是一種集成學習方法,旨在通過迭代的方式,將多個弱學習器組合成一個強學習器。每個弱學習器都試圖糾正前一個學習器的錯誤,從而逐步提高模型的準確性。Boosting 算法通常採用加權的方式來組合弱學習器的預測結果,權重的大小取決於每個弱學習器的性能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/boosting 快查頁:https://aiterms.tw/terms/boosting 深度解說:https://aiterms.tw/learning/what-is-boosting --- # 提取式摘要技術(Extractive Summarization) 提取式摘要技術從原文中選擇重要句子組成摘要,簡單直接,易於實現,但可能缺乏連貫性,且無法進行語義概括。 ## 完整說明 提取式摘要技術是一種自然語言處理技術,旨在從原始文本中選擇最重要的句子,並將它們組合在一起形成摘要。這種方法簡單直接,易於實現,但生成的摘要可能缺乏連貫性,並且無法進行語義概括,只能保留原文中的信息。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/extractive-summarization 快查頁:https://aiterms.tw/terms/extractive-summarization 深度解說:https://aiterms.tw/learning/what-is-extractive-summarization --- # 提示工程(Prompt Engineering) 提示工程是設計與優化輸入給 AI 模型的指令,以引導模型產生更準確、符合需求的回應 ## 完整說明 提示工程是一種設計和優化輸入提示(Prompt)的技術,用於引導大型語言模型(LLM)產生期望的輸出。通過精心設計的提示,可以控制 LLM 的行為,使其執行特定的任務,例如翻譯、摘要、問答等。提示工程是利用 LLM 的關鍵技能,需要理解 LLM 的能力和限制,並通過迭代優化提示來提高模型性能。在 iPAS 考試中,提示工程是大型語言模型應用中的重要環節,需要掌握提示設計的原則和技巧。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 提示詞設計原則與框架(佔 45%) - RAG 與 AI 工具整合(佔 35%) - 提示詞優化策略(佔 20%) ## 常見問題 ### 提示工程和特徵工程有什麼不同? 提示工程針對大型語言模型,透過設計輸入的文字來影響模型的輸出,著重於如何引導模型產生期望的回應。特徵工程則針對傳統機器學習模型,透過提取和轉換原始數據的特徵來提升模型的準確性,著重於數據的預處理和優化。 ### 什麼時候應該使用提示工程? 當你使用大型語言模型處理自然語言相關任務,例如文本生成、翻譯、問答等,且模型輸出的品質未達預期時,就應該考慮使用提示工程。此外,如果任務需要高度的創造性或個性化,提示工程也能有效引導模型產生更符合需求的內容。 ### 初學者學習提示工程最常見的誤解是什麼? 初學者常誤以為提示工程只是簡單的提問,忽略了提示設計的技巧和迭代優化的重要性。有效的提示工程需要深入理解模型的運作機制,並根據目標任務和評估指標,不斷嘗試和調整提示,才能找到最佳的提示策略。 --- 來源:https://aiterms.tw/terms/prompt-engineering 快查頁:https://aiterms.tw/terms/prompt-engineering 深度解說:https://aiterms.tw/learning/what-is-prompt-engineering --- # 提示詞注入(Prompt Injection) 提示詞注入是一種安全漏洞,攻擊者通過惡意設計的提示詞操控大型語言模型的行為,使其忽略或違反原始指令。 ## 完整說明 提示詞注入是一種針對大型語言模型的安全漏洞。攻擊者通過精心設計的提示詞,誘導模型執行非預期的行為,例如洩露敏感資訊、生成有害內容或忽略原始指令。這種攻擊能夠繞過模型的安全防護機制,造成潛在的風險。常見應用包括繞過內容審核、執行未授權操作。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/prompt-injection 快查頁:https://aiterms.tw/terms/prompt-injection 深度解說:https://aiterms.tw/learning/what-is-prompt-injection --- # 損失函數(Loss Function) 損失函數衡量模型預測與實際值之間的差異,數值越小代表模型預測越準確,是模型訓練中優化目標的關鍵組成部分。 ## 完整說明 損失函數(Loss Function)用於量化機器學習模型預測結果與真實值之間的差異程度。在模型訓練過程中,目標是最小化損失函數的值,這表示模型的預測結果與實際情況更加接近。不同的機器學習任務和模型會使用不同的損失函數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/loss-function 快查頁:https://aiterms.tw/terms/loss-function 深度解說:https://aiterms.tw/learning/what-is-loss-function --- # 摘要生成技術(Abstractive Summarization) 摘要生成技術利用AI理解原文,並以新的句子和詞彙生成摘要,更接近人類的摘要方式,但實現難度較高。 ## 完整說明 摘要生成技術是一種自然語言處理技術,旨在理解原始文本的內容,並使用新的句子和詞彙生成摘要。與提取式摘要不同,它不直接複製原文中的句子,而是模仿人類的摘要方式,更具概括性和連貫性。然而,由於需要更深入的語義理解和生成能力,實現難度也更高。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/abstractive-summarization 快查頁:https://aiterms.tw/terms/abstractive-summarization 深度解說:https://aiterms.tw/learning/what-is-abstractive-summarization --- # 擴散模型(Diffusion Model) 擴散模型是一種生成模型,透過逐步將雜訊還原成清晰圖像,達成從隨機雜訊生成資料的目的 ## 完整說明 擴散模型是一種生成式模型,通過逐步將雜訊添加到資料中,然後學習逆向過程,從雜訊中重建資料。它包含前向擴散過程和反向去噪過程。擴散模型在圖像生成、音訊生成等領域表現出色,能夠生成高品質、多樣化的樣本。在 iPAS 考試中,擴散模型是生成式 AI 的重要組成部分,需要了解其基本原理和應用場景。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 4%,屬於未分類考範圍。 ## 常見問題 ### 擴散模型如何應用於影像超解析度? 擴散模型可以學習將低解析度影像逐步去噪,還原成高解析度影像。模型會學習從低解析度影像中預測缺失的細節,並逐步添加這些細節,最終生成一張清晰的高解析度影像。這種方法通常能產生比傳統方法更逼真的結果。 ### 擴散模型在訓練時需要大量的資料嗎? 是的,擴散模型通常需要大量的訓練資料才能達到良好的生成效果。這是因為模型需要學習從各種不同程度的雜訊中還原出原始資料,這需要大量的樣本來覆蓋不同的資料分布。但隨著技術發展,也有研究致力於減少擴散模型對資料的需求。 ### 如何評估擴散模型生成圖像的品質? 評估擴散模型生成圖像的品質可以使用多種指標,例如Inception Score (IS)、Fréchet Inception Distance (FID) 等。這些指標可以衡量生成圖像的多樣性和真實性。此外,也可以透過人工評估的方式,讓人類判斷生成圖像的品質。 --- 來源:https://aiterms.tw/terms/diffusion-model 快查頁:https://aiterms.tw/terms/diffusion-model 深度解說:https://aiterms.tw/learning/what-is-diffusion-model --- # 支持向量機(Support Vector Machine) 支持向量機是一種機器學習模型,透過尋找最大邊界的超平面,將不同類別的資料有效分隔 ## 完整說明 支持向量機(SVM)是一種監督式學習演算法,用於分類和迴歸分析。它通過尋找一個最佳超平面,將不同類別的資料點分隔開,並最大化超平面與最近資料點之間的距離(邊界)。SVM 在高維空間中表現良好,並且具有較強的泛化能力。SVM 可以使用不同的核函數來處理非線性資料。 ## 常見問題 ### 支持向量機的核函數是什麼?有哪些種類? 核函數是 SVM 中用於將資料映射到更高維度空間的函數,使得原本線性不可分的資料在新的空間中變得線性可分。常見的核函數包括線性核、多項式核、徑向基函數(RBF)核和 Sigmoid 核。選擇合適的核函數對於 SVM 的性能至關重要,需要根據具體問題和資料特性進行選擇。 ### 如何評估支持向量機模型的性能? 評估 SVM 模型性能的常用指標包括準確率(Accuracy)、精確度(Precision)、召回率(Recall)和 F1 分數(F1-score)。此外,還可以使用 ROC 曲線(Receiver Operating Characteristic curve)和 AUC(Area Under the Curve)來評估模型的分類能力。在評估模型時,需要注意資料的平衡性,避免因資料不平衡而導致的評估偏差。 ### 如何避免支持向量機模型的過擬合? 避免 SVM 模型過擬合的常用方法包括:使用交叉驗證(Cross-validation)選擇最佳的參數組合;增加訓練資料量;使用正則化(Regularization)來限制模型的複雜度;選擇合適的核函數,避免使用過於複雜的核函數。正則化參數 C 控制了對錯誤分類的懲罰程度,較小的 C 值可以降低模型的複雜度,從而避免過擬合。 --- 來源:https://aiterms.tw/terms/support-vector-machine 快查頁:https://aiterms.tw/terms/support-vector-machine 深度解說:https://aiterms.tw/learning/what-is-support-vector-machine --- # 放射醫學AI(Radiology AI) 放射醫學AI利用人工智慧技術分析醫學影像,輔助醫生診斷疾病,提高診斷效率和準確性,並減少人為錯誤。 ## 完整說明 放射醫學AI是指應用人工智慧技術於放射醫學領域,主要用於分析X光、CT、MRI等醫學影像,以輔助醫生進行疾病診斷、病情評估和治療方案制定。其目標是提高診斷效率和準確性,減少人為錯誤,並最終改善患者的治療效果。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/radiology-ai 快查頁:https://aiterms.tw/terms/radiology-ai 深度解說:https://aiterms.tw/learning/what-is-radiology-ai --- # 啟發網路(Inception Network) Inception Network 是一種深度卷積神經網路架構,旨在透過並行使用多種卷積核大小,捕捉不同尺度的特徵,提升模型效能。 ## 完整說明 Inception Network 是一種深度卷積神經網路架構,其核心思想是透過並行使用多種卷積核大小,捕捉不同尺度的特徵。這種架構旨在解決傳統卷積神經網路中卷積核大小選擇的難題,並提高模型的效能和效率。Inception 模組是 Inception Network 的基本 building block。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/inception-network 快查頁:https://aiterms.tw/terms/inception-network 深度解說:https://aiterms.tw/learning/what-is-inception-network --- # 數位分身(Digital Twin) 數位分身是真實世界實體或系統的虛擬化身,通過收集數據進行模擬、監控和預測,以優化性能、預防故障和做出更明智的決策。 ## 完整說明 數位分身是真實世界中物理實體或系統的動態虛擬表示。它通過收集來自感測器、物聯網設備和其他來源的數據,創建一個與真實對象同步更新的數位模型。數位分身可用於模擬、監控、預測和優化真實對象的性能、可靠性和效率,從而實現更明智的決策和更高效的運營。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/digital-twin 快查頁:https://aiterms.tw/terms/digital-twin 深度解說:https://aiterms.tw/learning/what-is-digital-twin --- # 文字生成3D模型(Text-to-3D) 文字生成3D模型是指利用人工智慧技術,將文字描述轉換為對應的3D模型,實現從文字到視覺化模型的自動生成。 ## 完整說明 文字生成3D模型是一種生成式AI技術,它利用自然語言處理和電腦視覺的結合,將文字描述作為輸入,自動生成符合描述的3D模型。這項技術可以廣泛應用於遊戲開發、設計、虛擬實境等領域,極大地簡化了3D模型創建的流程。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-to-3d 快查頁:https://aiterms.tw/terms/text-to-3d 深度解說:https://aiterms.tw/learning/what-is-text-to-3d --- # 文字生成圖像(Text-to-Image) 文字生成圖像是一種人工智慧技術,它能根據文字描述自動生成對應的圖像,實現文字內容的視覺化呈現。 ## 完整說明 文字生成圖像是一種多模態人工智慧技術,用於根據文字描述自動生成對應的圖像。它能夠將抽象的文字概念轉化為具體的視覺呈現,常見應用包括藝術創作、設計輔助、內容生成等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-to-image 快查頁:https://aiterms.tw/terms/text-to-image 深度解說:https://aiterms.tw/learning/what-is-text-to-image --- # 文字生成影片(Text-to-Video) 文字生成影片是一種人工智慧技術,它能根據文字描述自動生成對應的影片,將文字內容轉化為動態視覺呈現。 ## 完整說明 文字生成影片是一種多模態人工智慧技術,用於根據文字描述自動生成對應的影片。它能夠將抽象的文字概念轉化為動態的視覺呈現,常見應用包括內容創作、教育娛樂、廣告製作等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-to-video 快查頁:https://aiterms.tw/terms/text-to-video 深度解說:https://aiterms.tw/learning/what-is-text-to-video --- # 文字轉語音(Text-to-Audio) 文字轉語音技術將文字轉換為可聽的音訊,利用AI模型生成自然且具表現力的語音。 ## 完整說明 文字轉語音(Text-to-Audio, TTS)是一種人工智慧技術,旨在將書面文字轉換成人類可理解的語音。它結合了自然語言處理(NLP)和語音合成技術,使機器能夠讀出文字,並模擬人類的語音特徵,例如語調、節奏和情感。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-to-audio 快查頁:https://aiterms.tw/terms/text-to-audio 深度解說:https://aiterms.tw/learning/what-is-text-to-audio --- # 文字轉語音(Text-to-Speech) 文字轉語音 (TTS) 技術將文字轉換為人類可理解的語音。它廣泛應用於輔助工具、語音助手和內容創作等領域。 ## 完整說明 文字轉語音 (TTS) 是一種將文字轉換為人類可理解的語音的技術。TTS 系統通常使用複雜的演算法和模型,包括深度學習技術,來分析文字並生成相應的語音訊號。TTS 的應用非常廣泛,包括輔助工具、語音助手、內容創作和娛樂等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-to-speech 快查頁:https://aiterms.tw/terms/text-to-speech 深度解說:https://aiterms.tw/learning/what-is-text-to-speech --- # 文本分類(Text Classification) 文本分類是自然語言處理中的一項任務,旨在將文本自動分配到預定義的類別中。它應用廣泛,例如垃圾郵件檢測、情感分析等。 ## 完整說明 文本分類是自然語言處理(NLP)領域的一項核心任務,其目標是根據文本內容將其自動歸類到預先定義好的類別或標籤中。此過程涉及分析文本的語義、語法和上下文,以確定最適合的類別。文本分類在許多實際應用中都扮演著重要角色,例如垃圾郵件檢測、情感分析、新聞分類和主題標籤等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-classification 快查頁:https://aiterms.tw/terms/text-classification 深度解說:https://aiterms.tw/learning/what-is-text-classification --- # 文本到文本(T5) T5 (Text-to-Text Transfer Transformer) 是一種將所有 NLP 任務轉換為文本到文本格式的轉換器模型,簡化了模型訓練和應用。 ## 完整說明 T5 (Text-to-Text Transfer Transformer) 是 Google 開發的一種轉換器模型,其獨特之處在於將所有自然語言處理 (NLP) 任務,如翻譯、摘要、問答等,都轉換為文本到文本的格式。這種統一的方法簡化了模型訓練和應用,使其更易於泛化到不同的 NLP 任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/t5 快查頁:https://aiterms.tw/terms/t5 深度解說:https://aiterms.tw/learning/what-is-t5 --- # 文本摘要(Text Summarization) 文本摘要是自然語言處理中的一項任務,旨在從一篇或多篇文章中生成簡潔且信息豐富的摘要。分為抽取式和生成式兩種方法。 ## 完整說明 文本摘要是自然語言處理(NLP)領域的一項重要任務,其目標是從一篇或多篇文章中自動生成簡潔且信息豐富的摘要,保留原文的核心內容。文本摘要技術可以幫助人們快速了解文章的主旨,節省閱讀時間。主要分為抽取式摘要和生成式摘要兩種方法。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/text-summarization 快查頁:https://aiterms.tw/terms/text-summarization 深度解說:https://aiterms.tw/learning/what-is-text-summarization --- # 時序差分學習(Temporal Difference Learning) 時序差分學習是一種強化學習方法,透過預測未來獎勵並更新預測值,從不完整的序列中學習,無需等待完整結果。 ## 完整說明 時序差分學習 (TD Learning) 是一種強化學習演算法,它通過從不完整的序列中學習來預測未來獎勵。與蒙地卡羅方法不同,TD 學習可以在 episode 結束前更新其預測,使其能夠在線上和連續環境中學習。它結合了動態規劃的抽樣和貝爾曼方程的更新。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/temporal-difference-learning 快查頁:https://aiterms.tw/terms/temporal-difference-learning 深度解說:https://aiterms.tw/learning/what-is-temporal-difference-learning --- # 時間序列分析(Time Series Analysis) 時間序列分析是研究按時間順序排列的數據點序列,以識別模式、趨勢和週期性,並預測未來值。 ## 完整說明 時間序列分析是一種統計方法,用於分析按時間順序排列的數據點序列。其目標是識別數據中的模式、趨勢、週期性和季節性變化,並利用這些信息來預測未來的數據點。時間序列分析廣泛應用於金融、經濟、氣象、工程等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/time-series-analysis 快查頁:https://aiterms.tw/terms/time-series-analysis 深度解說:https://aiterms.tw/learning/what-is-time-series-analysis --- # 曼巴模型(Mamba) Mamba是一種基於選擇機制的序列模型,旨在解決Transformer在長序列建模上的效率瓶頸,透過硬體感知演算法提升運算速度。 ## 完整說明 Mamba模型是一種新型的序列模型架構,它結合了線性時間不變(LTI)系統的效率和選擇機制的上下文感知能力。Mamba旨在克服Transformer在處理長序列時遇到的計算和記憶體瓶頸,尤其是在狀態空間模型(SSM)的基礎上進行了改進,使其能夠更有效地處理長程依賴關係,並在硬體上實現更快的運算速度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mamba 快查頁:https://aiterms.tw/terms/mamba 深度解說:https://aiterms.tw/learning/what-is-mamba --- # 期望最大化算法(Expectation Maximization) 期望最大化 (EM) 算法是一種迭代算法,用於在存在隱變量的情況下,估計機率模型的參數。它交替執行期望 (E) 步驟和最大化 (M) 步驟。 ## 完整說明 期望最大化 (Expectation Maximization, EM) 算法是一種迭代算法,用於在機率模型中存在隱藏變量或缺失數據時,尋找參數的最大似然估計或最大後驗估計。EM 算法通過交替執行期望 (E) 步驟和最大化 (M) 步驟,逐步逼近模型的參數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/expectation-maximization 快查頁:https://aiterms.tw/terms/expectation-maximization 深度解說:https://aiterms.tw/learning/what-is-expectation-maximization --- # 本體論(Ontology) 本體論是明確指定領域概念及其關係的正式表示,用於知識共享和推理,是知識圖譜的基礎。 ## 完整說明 本體論在人工智慧領域指的是對特定領域的知識進行形式化的表示,它定義了該領域中存在的概念、實體、屬性以及它們之間的關係。本體論提供了一個共享的詞彙表,使得不同的系統和應用程式能夠理解和交換信息,是構建知識圖譜的基礎。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ontology 快查頁:https://aiterms.tw/terms/ontology 深度解說:https://aiterms.tw/learning/what-is-ontology --- # 梅爾頻譜圖(Mel Spectrogram) 梅爾頻譜圖是一種音訊訊號的視覺表示,它將音訊的頻率轉換到梅爾尺度上,更符合人類聽覺感知,常用於語音辨識和音訊分析。 ## 完整說明 梅爾頻譜圖是一種音訊訊號的時頻表示,它通過將音訊的頻率轉換到梅爾尺度上,模擬人類聽覺系統對不同頻率的感知敏感度。相較於傳統頻譜圖,梅爾頻譜圖更能捕捉音訊中對人類聽覺重要的特徵,因此廣泛應用於語音辨識、音樂分析等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mel-spectrogram 快查頁:https://aiterms.tw/terms/mel-spectrogram 深度解說:https://aiterms.tw/learning/what-is-mel-spectrogram --- # 梯度下降(Gradient Descent) 梯度下降是一種透過反覆運算,沿損失函數的梯度方向,逐步逼近損失函數最小值的演算法 ## 完整說明 梯度下降是一種最佳化演算法,用於尋找函數的最小值。在機器學習中,它被廣泛用於訓練模型,通過迭代調整模型參數,沿著損失函數梯度下降的方向,逐步逼近最佳解,以最小化預測誤差。在 iPAS 考試中,梯度下降是理解模型訓練過程的重要概念,需要掌握其基本原理和應用。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 優化演算法比較(佔 40%) - 梯度下降原理(佔 40%) - 演算法效率評估(佔 20%) ## 常見問題 ### 梯度下降和最小二乘法有什麼不同? 梯度下降是一種迭代優化算法,適用於廣泛的函數優化問題,通過不斷調整參數來逼近最佳解。最小二乘法是直接求解線性迴歸模型參數的方法,只適用於線性迴歸,能直接得到參數的解析解。前者適用於非凸函數和參數多的情況,後者則適用於線性迴歸且存在解析解的情況。 ### 什麼時候應該使用梯度下降? 當目標函數是非凸函數,難以找到解析解;模型參數數量龐大,直接求解解析解的計算成本太高;或者需要在線學習,隨著數據的到來不斷更新模型參數時,梯度下降通常是更合適的選擇。 ### 初學者學習梯度下降最常見的誤解是什麼? 初學者最常見的誤解是認為梯度下降一定能找到全局最小值。梯度下降可能會陷入局部最小值,尤其是在非凸函數的情況下。需要使用不同的初始化參數、調整學習率,或者使用更高級的優化算法來避免陷入局部最小值。 --- 來源:https://aiterms.tw/terms/gradient-descent 快查頁:https://aiterms.tw/terms/gradient-descent 深度解說:https://aiterms.tw/learning/what-is-gradient-descent --- # 梯度加權類激活圖(Grad-CAM) Grad-CAM是一種可視化技術,利用梯度資訊來突出顯示輸入圖像中對模型預測最重要的區域,提供模型決策的可解釋性。 ## 完整說明 梯度加權類激活圖 (Grad-CAM) 是一種用於深度學習模型的可視化技術,特別是卷積神經網路 (CNN)。它使用目標概念相對於最後一層卷積層的梯度資訊,生成一個粗略的顯著性圖,突出顯示輸入圖像中對模型預測特定類別最重要的區域。Grad-CAM 允許使用者理解模型為何做出特定決策,從而提高模型的可解釋性和可信度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/grad-cam 快查頁:https://aiterms.tw/terms/grad-cam 深度解說:https://aiterms.tw/learning/what-is-grad-cam --- # 梯度提升法(Gradient Boosting) 梯度提升法是一種機器學習技術,透過迭代地組合弱學習器(通常是決策樹)來建立強大的預測模型,每次迭代都專注於修正前一個模型的錯誤。 ## 完整說明 梯度提升法是一種集成學習演算法,它透過逐步建立模型來進行預測。每個新模型都旨在修正先前模型的預測誤差,這種方法透過梯度下降來最佳化損失函數,最終將所有弱學習器的預測結果組合起來,形成一個更準確的強學習器。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/gradient-boosting 快查頁:https://aiterms.tw/terms/gradient-boosting 深度解說:https://aiterms.tw/learning/what-is-gradient-boosting --- # 梯度消失(Vanishing Gradient) 梯度消失是指在深度學習模型訓練中,梯度在反向傳播時逐漸縮小至接近於零,導致淺層網路權重難以更新,模型學習停滯。 ## 完整說明 梯度消失是指在深度神經網路的訓練過程中,由於反向傳播算法的特性,梯度在經過多層網路後變得非常小,甚至接近於零。這使得淺層網路的權重難以得到有效更新,導致模型無法學習到有效的特徵,最終影響模型的性能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/vanishing-gradient 快查頁:https://aiterms.tw/terms/vanishing-gradient 深度解說:https://aiterms.tw/learning/what-is-vanishing-gradient --- # 梯度爆炸(Exploding Gradient) 梯度爆炸是指在深度學習模型訓練中,梯度在反向傳播時變得異常巨大,導致權重更新過大,模型訓練不穩定甚至崩潰。 ## 完整說明 梯度爆炸是指在深度神經網路的訓練過程中,由於反向傳播算法的特性,梯度在經過多層網路後變得非常大。這使得權重更新過大,導致模型訓練不穩定,甚至可能導致模型崩潰。梯度爆炸通常發生在循環神經網路中。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/exploding-gradient 快查頁:https://aiterms.tw/terms/exploding-gradient 深度解說:https://aiterms.tw/learning/what-is-exploding-gradient --- # 梯度裁剪(Gradient Clipping) 梯度裁剪是一種防止梯度爆炸問題的技術,通過限制梯度的大小,確保訓練過程的穩定性,避免模型參數更新過大。 ## 完整說明 梯度裁剪 (Gradient Clipping) 是一種在訓練深度神經網路時使用的技術,用於防止梯度爆炸問題。梯度爆炸指的是在反向傳播過程中,梯度變得非常大,導致模型參數更新過大,訓練過程不穩定甚至發散。梯度裁剪通過設定一個閾值,限制梯度的最大值,從而避免梯度爆炸。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/gradient-clipping 快查頁:https://aiterms.tw/terms/gradient-clipping 深度解說:https://aiterms.tw/learning/what-is-gradient-clipping --- # 極端梯度提升(eXtreme Gradient Boosting) GBDT 的進化版,加入正則化防過擬合,支援缺失值和並行化,是比賽和業界的常勝軍 ## 完整說明 極端梯度提升 (XGBoost) 是一種梯度提升演算法的優化實現,用於解決分類和回歸問題。它能夠通過集成多個弱學習器(通常是決策樹)來構建強大的預測模型。XGBoost 在特徵工程和模型訓練方面具有高效性和準確性,並提供正則化等機制以防止過擬合,因此在機器學習競賽和實際應用中廣泛使用。 ## 常見問題 ### 極端梯度提升 (XGBoost) 在處理高維度數據時,有哪些需要特別注意的地方? 在高維度數據中,特徵數量龐大,容易導致過擬合。因此,需要更加謹慎地調整 XGBoost 的正則化參數(如 L1 和 L2 正則化),以控制模型的複雜度。同時,可以考慮使用特徵選擇或降維技術,例如主成分分析 (PCA),來減少特徵數量,提高模型的泛化能力。此外,也要注意高維度數據可能導致的計算量增加,合理利用 XGBoost 的並行計算能力。 ### XGBoost 的模型訓練完成後,如何評估模型的效果? 評估 XGBoost 模型效果可以使用多種指標,具體取決於任務類型。對於分類任務,常用的指標包括準確率、精確率、召回率、F1 分數和 AUC-ROC 曲線。對於回歸任務,常用的指標包括均方誤差 (MSE)、均方根誤差 (RMSE) 和平均絕對誤差 (MAE)。此外,還可以通過交叉驗證來評估模型的泛化能力,避免過擬合。 ### 除了 Python,還可以使用哪些程式語言來使用 XGBoost? 雖然 Python 是 XGBoost 最常用的程式語言,但 XGBoost 也提供了其他程式語言的介面,例如 R、Java、Scala 和 C++。R 語言的 `xgboost` 套件提供了豐富的功能和易用的介面,適合統計分析和數據挖掘。Java 和 Scala 常用於構建大規模的分布式系統,C++ 則可以直接調用 XGBoost 的底層庫,獲得更高的性能。 --- 來源:https://aiterms.tw/terms/extreme-gradient-boosting 快查頁:https://aiterms.tw/terms/extreme-gradient-boosting 深度解說:https://aiterms.tw/learning/what-is-extreme-gradient-boosting --- # 概念漂移(Concept Drift) 概念漂移是指機器學習模型在部署後,由於資料分佈隨時間變化,導致模型預測準確度下降的現象。需要持續監控並重新訓練模型。 ## 完整說明 概念漂移是一種機器學習模型在實際應用中遇到的挑戰。它指的是模型所學習的目標函數(輸入與輸出之間的關係)隨時間發生變化,導致模型在新的資料上的預測能力下降。常見應用包括金融市場預測、推薦系統和異常偵測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/concept-drift 快查頁:https://aiterms.tw/terms/concept-drift 深度解說:https://aiterms.tw/learning/what-is-concept-drift --- # 概念瓶頸模型(Concept Bottleneck Model) 概念瓶頸模型是一種深度學習模型,它強制模型通過人類可理解的概念來進行預測,從而提高模型的可解釋性和可控性。 ## 完整說明 概念瓶頸模型(Concept Bottleneck Model, CBM)是一種深度學習架構,旨在提高模型的可解釋性。它通過強制模型學習並使用人類可理解的概念作為預測的中間表示來實現這一目標。模型首先將輸入轉換為一組概念激活,然後利用這些概念激活來進行最終預測。這種結構使得我們可以更容易地理解模型做出決策的原因,並在必要時進行干預。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/concept-bottleneck-model 快查頁:https://aiterms.tw/terms/concept-bottleneck-model 深度解說:https://aiterms.tw/learning/what-is-concept-bottleneck-model --- # 槽位填充(Slot Filling) 槽位填充是自然語言理解中的一項任務,旨在從文本中提取特定資訊,並將其填入預定義的槽位中,以形成結構化資料。 ## 完整說明 槽位填充是自然語言理解(NLU)中的關鍵任務,其目標是從使用者輸入的文本中提取相關資訊,並將這些資訊填入預先定義的槽位(slots)中。這些槽位代表了特定領域的知識,例如在訂票系統中,槽位可能包括目的地、日期和時間。槽位填充的結果是一個結構化的資料表示,可以被機器理解和利用,進而執行相應的操作。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/slot-filling 快查頁:https://aiterms.tw/terms/slot-filling 深度解說:https://aiterms.tw/learning/what-is-slot-filling --- # 標籤編碼(Label Encoding) 標籤編碼是將類別型資料轉換為整數,以便機器學習模型處理,但需注意可能產生不必要的順序關係 ## 完整說明 標籤編碼是一種將類別型資料轉換為數值型資料的技術,用於機器學習模型訓練。它將每個類別分配一個唯一的整數值,使得模型可以處理這些類別變數。然而,標籤編碼可能會引入類別之間的順序關係,因此在某些情況下可能需要使用其他編碼方法,例如獨熱編碼。 ## 常見問題 ### 如果類別數量非常多,使用標籤編碼會造成什麼問題? 當類別數量非常多時,標籤編碼產生的整數值範圍會很大,可能會導致某些機器學習模型(例如線性模型)的訓練效果不佳。此外,如果類別之間不存在順序關係,大量的整數值會加劇模型誤解數據的可能性。 ### 標籤編碼是否可以應用於迴歸問題? 標籤編碼主要用於分類問題,將類別型的目標變數轉換為數值型。對於迴歸問題,目標變數本身就是數值型,因此通常不需要使用標籤編碼。 ### 除了標籤編碼和獨熱編碼,還有其他類別型數據編碼方式嗎? 是的,還有許多其他的編碼方式,例如計數編碼(Count Encoding)、目標編碼(Target Encoding)、哈希編碼(Hashing Encoding)等。這些編碼方式各有優缺點,適用於不同的場景。選擇哪種編碼方式取決於數據的特性和模型的具體需求。 --- 來源:https://aiterms.tw/terms/label-encoding 快查頁:https://aiterms.tw/terms/label-encoding 深度解說:https://aiterms.tw/learning/what-is-label-encoding --- # 標籤雜訊(Label Noise) 標籤雜訊是指訓練資料集中不正確或錯誤的標籤。這些錯誤標籤會降低模型效能,導致模型學習到錯誤的模式。 ## 完整說明 標籤雜訊是指在機器學習的訓練資料集中,標籤(label)與實際資料點不符的情況。這種不一致可能是人為錯誤、資料收集過程中的問題,或是資料本身的模糊性所導致。標籤雜訊會嚴重影響模型的學習效果,使其難以準確預測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/label-noise 快查頁:https://aiterms.tw/terms/label-noise 深度解說:https://aiterms.tw/learning/what-is-label-noise --- # 標註者一致性(Inter-annotator Agreement) 標註者一致性衡量多位標註者在相同資料上標註結果的相似程度。高一致性代表標註品質良好,反之則可能需要重新評估標註規範。 ## 完整說明 標註者一致性(Inter-annotator Agreement, IAA)是指多位標註者(annotator)針對同一份資料進行標註後,其標註結果之間的一致程度。它是評估標註品質的重要指標,高一致性表示標註規範清晰、標註者理解一致,反之則可能需要檢討標註規範或加強標註者訓練。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/inter-annotator-agreement 快查頁:https://aiterms.tw/terms/inter-annotator-agreement 深度解說:https://aiterms.tw/learning/what-is-inter-annotator-agreement --- # 模型剪枝(Pruning) 模型剪枝是一種減少模型大小和計算複雜度的技術,透過移除模型中不重要的權重或神經元來實現。 ## 完整說明 模型剪枝是一種模型壓縮技術,用於減少深度學習模型的大小和計算複雜度。它能夠識別並移除模型中不重要的權重或神經元,從而降低記憶體佔用和加速推論速度。常見應用包括在資源受限的設備上部署模型和加速模型訓練。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/pruning 快查頁:https://aiterms.tw/terms/pruning 深度解說:https://aiterms.tw/learning/what-is-pruning --- # 模型即服務(Model as a Service) 模型即服務(MaaS)是一種雲端運算服務,提供預先訓練好的機器學習模型,讓使用者透過API存取並應用於各種任務,無需自行訓練模型。 ## 完整說明 模型即服務(MaaS)是一種雲端運算服務模式,它允許使用者透過網路存取和使用預先訓練好的機器學習模型。這些模型通常由第三方供應商託管,使用者可以透過API呼叫來利用這些模型的功能,而無需自行開發、訓練或部署模型。MaaS降低了使用AI的門檻,讓更多企業和開發者能夠輕鬆地將AI整合到他們的應用程式和服務中。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-as-a-service 快查頁:https://aiterms.tw/terms/model-as-a-service 深度解說:https://aiterms.tw/learning/what-is-model-as-a-service --- # 模型參數(Parameters) 模型參數是機器學習模型在訓練過程中學習到的數值,用於決定模型如何對輸入資料進行轉換和預測。它們是模型的內部變數。 ## 完整說明 在機器學習中,模型參數是指模型在訓練過程中學習到的數值,這些數值決定了模型如何對輸入資料進行轉換和預測。模型參數是模型的內部變數,它們的值會影響模型的輸出結果。模型訓練的目標就是找到最佳的模型參數,使得模型能夠在訓練資料和測試資料上都表現良好。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/parameters 快查頁:https://aiterms.tw/terms/parameters 深度解說:https://aiterms.tw/learning/what-is-parameters --- # 模型反演攻擊(Model Inversion Attack) 模型反演攻擊是一種試圖從機器學習模型中恢復訓練數據或敏感資訊的攻擊方式,藉此洩漏隱私。 ## 完整說明 模型反演攻擊是一種隱私攻擊,旨在從已訓練的機器學習模型中推斷出關於訓練數據的敏感信息。攻擊者利用模型的輸入-輸出關係,試圖重建或推斷出用於訓練模型的原始數據的某些屬性或特徵,從而洩漏隱私。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-inversion-attack 快查頁:https://aiterms.tw/terms/model-inversion-attack 深度解說:https://aiterms.tw/learning/what-is-model-inversion-attack --- # 模型壓縮(Model Compression) 模型壓縮是指減少機器學習模型大小和計算複雜度的技術,以便在資源有限的設備上部署,同時保持模型性能。 ## 完整說明 模型壓縮是一種減少機器學習模型大小和計算複雜度的技術。它旨在降低模型對儲存空間、記憶體和計算資源的需求,使其能夠在資源有限的設備上(例如,手機、嵌入式系統)部署,同時保持模型的預測準確度。常見技術包括量化、剪枝和知識蒸餾。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-compression 快查頁:https://aiterms.tw/terms/model-compression 深度解說:https://aiterms.tw/learning/what-is-model-compression --- # 模型平行化(Model Parallelism) 模型平行化是一種將大型模型分割到多個裝置上進行訓練或推論的技術,以克服單一裝置的記憶體限制。 ## 完整說明 模型平行化是一種分散式訓練策略,它將大型神經網路模型分割成多個部分,並將這些部分分配到不同的計算裝置(例如GPU)上。這樣做可以克服單一裝置的記憶體限制,使得訓練或推論非常大的模型成為可能。模型平行化通常需要仔細的設計,以確保各個部分之間的有效通信和同步。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-parallelism 快查頁:https://aiterms.tw/terms/model-parallelism 深度解說:https://aiterms.tw/learning/what-is-model-parallelism --- # 模型快取(Model Caching) 模型快取是一種將已訓練的模型儲存在記憶體或快速儲存裝置中,以加速模型載入和推論的技術。 ## 完整說明 模型快取是一種優化機器學習模型推論性能的技術。它涉及將已訓練的模型儲存在記憶體或快速儲存裝置(例如 SSD)中,以便在需要時可以快速載入和使用。這可以顯著減少模型載入時間,提高推論速度,並降低延遲。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-caching 快查頁:https://aiterms.tw/terms/model-caching 深度解說:https://aiterms.tw/learning/what-is-model-caching --- # 模型服務化(Model Serving) 模型服務化是指將訓練好的機器學習模型部署到生產環境,使其能夠接收請求並返回預測結果的過程。 ## 完整說明 模型服務化是指將訓練好的機器學習模型部署到生產環境,使其能夠接收請求並返回預測結果的過程。它用於將模型集成到應用程序或服務中,並使其能夠實時或近實時地提供預測。常見應用包括線上預測、批次預測和模型監控。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-serving 快查頁:https://aiterms.tw/terms/model-serving 深度解說:https://aiterms.tw/learning/what-is-model-serving --- # 模型版本控制(Model Versioning) 模型版本控制是追蹤和管理機器學習模型不同迭代的過程,確保可重複性、可追溯性和協作。 ## 完整說明 模型版本控制是指系統性地追蹤和管理機器學習模型在開發、訓練和部署過程中的不同版本。它允許數據科學家和工程師記錄模型的變更、實驗和性能指標,以便於回溯、比較和協作,確保模型的可重複性和可靠性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-versioning 快查頁:https://aiterms.tw/terms/model-versioning 深度解說:https://aiterms.tw/learning/what-is-model-versioning --- # 模型登錄庫(Model Registry) 模型登錄庫是集中管理 AI 模型版本、追蹤訓練紀錄與部署狀態的系統,如同模型的戶籍系統 ## 完整說明 模型登錄庫是一種集中式的模型管理系統,用於儲存、版本控制、追蹤和部署機器學習模型。它能夠幫助團隊協作,確保模型的可重複性和可追溯性,並簡化模型部署流程。在 iPAS 考試中,理解模型登錄庫的概念和作用,對於掌握 MLOps 的相關知識至關重要,有助於理解模型生命週期管理。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 模型登錄庫如何提升模型的安全性? 模型登錄庫透過權限管理功能,限制不同使用者對模型的存取權限,防止未經授權的存取和修改。此外,模型登錄庫還可以記錄模型的變更歷史,方便進行安全稽核。例如,只有具備特定權限的使用者才能部署模型到生產環境,降低模型被惡意篡改的風險。 ### 模型登錄庫是否支援所有機器學習框架? 大多數模型登錄庫都支援常見的機器學習框架,例如 TensorFlow、PyTorch 和 scikit-learn。然而,對於一些較為冷門的框架,可能需要額外的配置或客製化開發才能實現支援。在選擇模型登錄庫時,需要確認其是否支援您所使用的框架。 ### 模型登錄庫的成本有哪些? 模型登錄庫的成本包括軟體授權費(如果使用商業版本)、硬體資源成本(例如儲存空間和計算資源)以及人力成本(包括導入、維護和管理模型登錄庫所需的人力)。開源的模型登錄庫可以降低軟體授權費用,但仍需要考慮硬體和人力成本。 --- 來源:https://aiterms.tw/terms/model-registry 快查頁:https://aiterms.tw/terms/model-registry 深度解說:https://aiterms.tw/learning/what-is-model-registry --- # 模型監控(Model Monitoring) 模型監控是持續追蹤機器學習模型在生產環境中的效能和行為,以確保其準確性、可靠性和公平性。及時發現並解決問題。 ## 完整說明 模型監控是一種持續追蹤機器學習模型在生產環境中的效能和行為的過程,用於確保其準確性、可靠性和公平性。它能夠幫助數據科學家和工程師及時發現並解決模型退化、資料漂移和概念漂移等問題,常見應用包括預測模型、推薦系統和風險評估。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/model-monitoring 快查頁:https://aiterms.tw/terms/model-monitoring 深度解說:https://aiterms.tw/learning/what-is-model-monitoring --- # 模型部署(Model Deployment) 模型部署是指將訓練完成的機器學習模型整合到實際應用環境中,使其能夠接收輸入數據並產生預測結果,為業務決策提供支援。 ## 完整說明 模型部署是機器學習流程中至關重要的一環,它將實驗室中開發的模型轉變為實際可用的工具。模型訓練完成後,並不能直接應用於解決實際問題,需要經過部署才能與現有的應用程式、系統或基礎設施整合。模型部署的核心概念在於將模型轉化為可訪問的服務,以便在真實世界中接收數據並產生預測。 部署方式多樣,包括雲端部署、邊緣部署、嵌入式部署等,具體選擇取決於應用場景的需求,例如對延遲、安全性、成本和資源的考量。成功的模型部署需要考慮模型的性能、可擴展性、監控和維護。在 iPAS 初級科目一的考試中,模型部署是重點考察的內容,理解其概念、方法和應用場景對於通過考試至關重要。考生需要了解不同部署方式的優缺點,以及模型監控和維護的重要性。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 5%,屬於中頻考範圍。 常見出題方向: - 鑑別式 AI 與生成式 AI 的基本原理(佔 40%) - 模型部署與效能管理(佔 35%) - 技術測試與驗證方法(佔 25%) ## 常見問題 ### 什麼是模型部署? 模型部署是將訓練好的機器學習模型整合到實際應用環境中,使其能接收數據並產生預測,為業務決策提供支援。它涉及模型封裝、環境配置、服務搭建、監控與維護等步驟,讓模型真正產生價值。 ### 模型部署在 iPAS 考試中怎麼考? iPAS 初級科目一會考察模型部署的基本概念、流程,以及不同部署方式(雲端、邊緣等)的優缺點。考試中可能出現選擇、簡答或案例分析題,重點在於理解如何將模型應用於實際場景並進行維護。評鑑代號 L11401。 ### 模型部署和哪個術語最常被混淆? 模型部署最常與模型訓練混淆。模型訓練是建立模型的過程,關注模型準確率;而模型部署是將模型應用於實際環境,關注模型性能、可擴展性和穩定性。前者在開發環境,後者在生產環境。 --- 來源:https://aiterms.tw/terms/model-deployment 快查頁:https://aiterms.tw/terms/model-deployment 深度解說:https://aiterms.tw/learning/what-is-model-deployment --- # 模型量化(Quantization) 模型量化是一種降低模型大小和加速推論的技術,透過減少模型權重和激活值的精度來實現。 ## 完整說明 模型量化是一種模型壓縮技術,用於減少深度學習模型的大小和計算複雜度。它能夠將模型中浮點數(如32位浮點數)轉換為低精度整數(如8位整數),從而降低記憶體佔用和加速推論速度。常見應用包括在行動裝置和嵌入式系統上部署模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/quantization 快查頁:https://aiterms.tw/terms/quantization 深度解說:https://aiterms.tw/learning/what-is-quantization --- # 模擬至實轉移(Sim-to-Real Transfer) 模擬至實轉移是一種將在模擬環境中訓練的模型應用到真實世界的方法,旨在克服模擬與現實之間的差異,提升模型泛化能力。 ## 完整說明 模擬至實轉移 (Sim-to-Real Transfer) 是一種機器學習技術,旨在將在模擬環境中訓練的模型成功應用於真實世界。由於模擬環境可以提供大量的標記數據和可控的實驗條件,因此在模擬環境中訓練模型通常比在真實世界中更容易。然而,模擬環境與真實世界之間存在差異(例如,光照、紋理、物理特性等),這些差異可能導致模型在真實世界中的性能下降。模擬至實轉移的目標是縮小這些差異,使模型能夠在真實世界中表現良好。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sim-to-real-transfer 快查頁:https://aiterms.tw/terms/sim-to-real-transfer 深度解說:https://aiterms.tw/learning/what-is-sim-to-real-transfer --- # 樸素貝氏(Naive Bayes) 樸素貝氏分類器是一種基於貝氏定理的簡單機率分類器。它假設所有特徵之間相互獨立,簡化了計算複雜度,因此得名「樸素」。常用於文本分類等任務。 ## 完整說明 樸素貝氏分類器是一種基於貝氏定理的機率分類器。它的「樸素」之處在於它假設所有特徵之間相互獨立,這在現實世界中通常是不成立的。儘管如此,樸素貝氏分類器在許多實際應用中仍然表現良好,尤其是在文本分類等高維度資料集上。由於其簡單性和效率,樸素貝氏分類器是一種常用的基線模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/naive-bayes 快查頁:https://aiterms.tw/terms/naive-bayes 深度解說:https://aiterms.tw/learning/what-is-naive-bayes --- # 機制性可解釋性(Mechanistic Interpretability) 機制性可解釋性旨在理解AI模型內部運作的具體機制,如同理解程式碼般,而非僅僅觀察輸入輸出關係。 ## 完整說明 機制性可解釋性是一種AI研究方向,目標是理解AI模型內部如何做出決策,不僅僅是觀察輸入和輸出之間的關係,而是深入了解模型內部神經元、權重和激活函數等組件如何協同工作,最終產生特定的結果。它試圖將模型的行為分解為更小的、可理解的組件,並理解這些組件如何相互作用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mechanistic-interpretability 快查頁:https://aiterms.tw/terms/mechanistic-interpretability 深度解說:https://aiterms.tw/learning/what-is-mechanistic-interpretability --- # 機器人學(Robotics) 機器人學是設計、建造、操作和應用機器人的科學和工程學科,涉及機械工程、電子工程、電腦科學等多個領域。 ## 完整說明 機器人學是一個跨學科領域,它結合了機械工程、電子工程、電腦科學、人工智慧等多個學科的知識,旨在設計、建造、操作和應用機器人。機器人被設計用於執行各種任務,從簡單的重複性工作到複雜的、危險的或人類難以完成的工作。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/robotics 快查頁:https://aiterms.tw/terms/robotics 深度解說:https://aiterms.tw/learning/what-is-robotics --- # 機器人流程自動化(Robotic Process Automation) 機器人流程自動化 (RPA) 是一種使用軟體機器人自動執行重複性、基於規則的業務流程的技術,旨在提高效率、降低成本和減少錯誤。 ## 完整說明 機器人流程自動化 (RPA) 是一種使用軟體機器人(也稱為數位助理)來自動執行重複性、基於規則的業務流程的技術。這些軟體機器人可以模擬人類與電腦系統的互動,例如登錄應用程式、輸入數據、移動文件和資料夾、填寫表格等。RPA 的目標是提高效率、降低成本、減少錯誤,並釋放員工的時間,讓他們可以專注於更具戰略性和創造性的工作。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/robotic-process-automation 快查頁:https://aiterms.tw/terms/robotic-process-automation 深度解說:https://aiterms.tw/learning/what-is-robotic-process-automation --- # 機器人理財顧問(Robo-Advisor) 機器人理財顧問是一種使用演算法和人工智慧來提供自動化投資建議和管理服務的平台,旨在降低投資門檻和成本。 ## 完整說明 機器人理財顧問是一種基於演算法和人工智慧的線上投資平台,它根據客戶的風險承受能力、投資目標和財務狀況,提供自動化的投資組合建議和管理服務。其目標是使投資更加便捷、低成本,並提供個性化的理財方案。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/robo-advisor 快查頁:https://aiterms.tw/terms/robo-advisor 深度解說:https://aiterms.tw/learning/what-is-robo-advisor --- # 機器學習(Machine Learning) 機器學習讓電腦透過分析大量資料自動找出規律,無需明確程式指令即可完成預測與分類任務 ## 完整說明 機器學習是一種人工智能的分支,用於使電腦系統能夠從資料中學習,而無需進行明確的程式設計。它能夠通過演算法分析資料,識別模式,並做出預測或決策。在 iPAS 考試中,機器學習是核心概念,需要理解其基本原理、常見演算法以及模型評估方法,為進一步學習深度學習等進階主題打下基礎。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 機器學習基本原理與目的(佔 40%) - 模型訓練與泛化機制(佔 40%) - 過擬合與欠擬合辨別(佔 20%) ## 常見問題 ### 機器學習和深度學習有什麼不同? 機器學習是一個更廣泛的概念,涵蓋各種從資料中學習的演算法。深度學習則是機器學習的一個子集,使用多層神經網路學習複雜模式。深度學習是更強大、複雜的機器學習方法,常需要更多資料和計算資源,但在某些簡單問題上,傳統機器學習方法可能更有效率。 ### 什麼時候應該使用機器學習? 當問題需要從大量資料中學習,且規則難以手動編寫,或解決方案需要適應環境變化時,應考慮使用機器學習。例如,預測客戶流失、偵測詐欺交易或推薦商品等。如果問題相對簡單,且規則明確,則傳統程式設計可能更適合。 ### 初學者學習機器學習最常見的誤解是什麼? 初學者常誤以為機器學習是萬能工具,能解決任何問題。實際上,機器學習效能取決於資料品質、演算法選擇和模型調參。如果資料品質差或演算法不當,即使是最先進的技術也無法取得理想結果。因此,學習機器學習不僅要掌握演算法,還要了解資料特性和應用場景。 --- 來源:https://aiterms.tw/terms/machine-learning 快查頁:https://aiterms.tw/terms/machine-learning 深度解說:https://aiterms.tw/learning/what-is-machine-learning --- # 機器學習管線(ML Pipeline) 機器學習管線是自動化機器學習工作流程的步驟序列,包括資料準備、模型訓練、評估和部署。 ## 完整說明 機器學習管線是指將機器學習工作流程中的各個步驟自動化和組織化的流程。它通常包括資料收集、資料清理、特徵工程、模型訓練、模型評估和模型部署等階段。管線的目的是簡化機器學習模型的開發、部署和維護,提高效率和可重複性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ml-pipeline 快查頁:https://aiterms.tw/terms/ml-pipeline 深度解說:https://aiterms.tw/learning/what-is-ml-pipeline --- # 機器學習維運(Machine Learning Operations) 把 DevOps 的實踐應用到 ML 系統上,自動化模型的訓練、部署、監控全生命週期 ## 完整說明 機器學習維運 (MLOps) 是一種將機器學習模型從開發階段部署到生產環境,並持續監控、管理和優化的方法。它旨在簡化機器學習模型的生命週期,確保模型能夠可靠、高效地運行,並快速適應變化。在 iPAS 考試中,MLOps 相關知識點涵蓋模型部署策略、監控指標、自動化流程以及版本控制等方面。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### MLOps 工程師需要具備哪些技能? MLOps 工程師需要具備機器學習、軟體工程和雲端運算的技能。他們需要熟悉機器學習演算法、資料處理技術、CI/CD 管道和雲端平台。此外,他們還需要具備良好的溝通能力和團隊合作精神,以便與資料科學家和營運人員協作。 ### 如何選擇合適的 MLOps 工具? 選擇 MLOps 工具需要考慮多個因素,包括團隊的技能、項目的需求和預算。一些常用的 MLOps 工具包括 MLflow、Kubeflow、TensorFlow Extended (TFX) 和 Amazon SageMaker。建議先評估不同工具的功能和性能,然後選擇最適合團隊和項目的工具。 ### 如何衡量 MLOps 的成功? 衡量 MLOps 的成功可以從多個方面入手,包括模型部署速度、模型效能、運營成本和團隊協作效率。可以設定一些具體的指標,例如模型部署時間縮短 50%、模型準確率提高 10% 和運營成本降低 20%。定期追蹤這些指標,可以評估 MLOps 的效果並進行改進。 --- 來源:https://aiterms.tw/terms/machine-learning-operations 快查頁:https://aiterms.tw/terms/machine-learning-operations 深度解說:https://aiterms.tw/learning/what-is-machine-learning-operations --- # 機器學習維運(MLOps) MLOps 是一種將機器學習模型開發與部署流程標準化的方法,旨在加速模型迭代、提高可靠性並簡化維護。 ## 完整說明 機器學習維運 (MLOps) 是一種將機器學習模型開發(Dev)與運營(Ops)流程標準化的方法。它旨在縮短模型開發週期、提高模型部署的可靠性,並簡化模型維護與監控。常見應用包括持續整合/持續交付 (CI/CD) 管道、自動化模型訓練和部署。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mlops 快查頁:https://aiterms.tw/terms/mlops 深度解說:https://aiterms.tw/learning/what-is-mlops --- # 機器翻譯(Machine Translation) 機器翻譯是利用電腦程式自動將文字或語音從一種語言轉換成另一種語言的技術,旨在打破語言障礙,促進跨文化交流。 ## 完整說明 機器翻譯(MT)是指使用電腦軟體將文字或語音從一種自然語言自動翻譯成另一種自然語言的過程。其目標是使不同語言的人們能夠理解彼此的內容,而無需人工翻譯的介入。機器翻譯系統的發展歷程經歷了基於規則、統計方法和神經網路等多個階段。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/machine-translation 快查頁:https://aiterms.tw/terms/machine-translation 深度解說:https://aiterms.tw/learning/what-is-machine-translation --- # 機率分佈(Probability Distribution) 機率分佈描述了隨機變數所有可能取值及其對應的機率。它可以是離散的(例如二項分佈)或連續的(例如常態分佈)。 ## 完整說明 機率分佈是一個數學函數,它描述了隨機變數所有可能取值及其對應的機率。機率分佈可以是離散的,也可以是連續的。離散機率分佈描述了有限個或可數個可能取值的機率,而連續機率分佈描述了在一個連續範圍內取值的機率。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/probability-distribution 快查頁:https://aiterms.tw/terms/probability-distribution 深度解說:https://aiterms.tw/learning/what-is-probability-distribution --- # 檢索增強微調(Retrieval-Augmented Fine-tuning) 檢索增強微調結合了檢索式和生成式模型的優勢,透過檢索相關資訊來增強微調過程,提升模型在特定任務上的效能。 ## 完整說明 檢索增強微調(Retrieval-Augmented Fine-tuning, RAFT)是一種將檢索式模型與生成式模型結合的技術。它首先從外部知識庫中檢索與輸入相關的資訊,然後將這些資訊融入到微調過程中,以提升模型在特定任務上的效能,尤其是在需要大量外部知識的任務中。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/retrieval-augmented-fine-tuning 快查頁:https://aiterms.tw/terms/retrieval-augmented-fine-tuning 深度解說:https://aiterms.tw/learning/what-is-retrieval-augmented-fine-tuning --- # 檢索增強生成(Retrieval-Augmented Generation) 檢索增強生成是先檢索知識庫,再將結果與問題一同輸入大型語言模型,以生成答案的技術 ## 完整說明 檢索增強生成 (Retrieval-Augmented Generation, RAG) 是一種結合了資訊檢索和文本生成技術的方法。它首先從外部知識庫中檢索相關資訊,然後利用這些資訊來增強生成模型的輸出,使其更準確、更具資訊性。在 iPAS 考試中,RAG 相關知識點可能涉及資訊檢索方法、知識庫構建以及生成模型評估等方面。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 提示詞設計原則與框架(佔 45%) - RAG 與 AI 工具整合(佔 35%) - 提示詞優化策略(佔 20%) ## 常見問題 ### 檢索增強生成如何處理知識庫中的過時資訊? RAG 系統需要定期更新知識庫,移除過時資訊並加入新的資訊。可以使用版本控制、時間戳記等技術來管理知識庫中的資訊。同時,在檢索時可以設定時間範圍,只檢索特定時間段內的資訊,避免使用過時的資訊。 ### 檢索增強生成如何處理知識庫中的噪音資訊? 知識庫中的噪音資訊會影響檢索的準確性,進而影響答案的品質。可以使用資料清洗、資訊過濾等技術來減少噪音資訊。例如,可以移除重複的資訊、修正錯誤的資訊、過濾不相關的資訊等。此外,在檢索時可以使用更精確的檢索算法,減少噪音資訊的干擾。 ### 檢索增強生成在處理多語言問題時會遇到什麼挑戰? 處理多語言問題時,需要考慮語言之間的差異。首先,需要將不同語言的提問和知識庫轉換成同一種語言,例如英文。可以使用機器翻譯等技術來實現語言轉換。其次,需要使用支持多語言的 LLM,確保 LLM 能夠理解不同語言的文本。最後,需要針對不同語言的特性,調整檢索算法和答案生成策略。 --- 來源:https://aiterms.tw/terms/retrieval-augmented-generation 快查頁:https://aiterms.tw/terms/retrieval-augmented-generation 深度解說:https://aiterms.tw/learning/what-is-retrieval-augmented-generation --- # 欠擬合(Underfitting) 欠擬合指模型容量不足以學習訓練資料的複雜模式,導致高偏差並在訓練與測試上均表現欠佳 ## 完整說明 欠擬合 (Underfitting) 是一種機器學習模型訓練過程中出現的問題,指的是模型無法捕捉到訓練資料中的基本模式,導致在訓練集和測試集上的表現都很差。這通常是因為模型過於簡單,無法有效地學習資料的複雜性。在 iPAS 考試中,欠擬合通常與模型複雜度、特徵選擇以及模型評估指標等概念相關。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 欠擬合的模型一定很差嗎? 大多數情況下,欠擬合的模型意味著預測能力不足,因此是不理想的。 然而,在資源極度受限或需要極高可解釋性的情況下,簡化的欠擬合模型可能是一個可以接受的折衷方案。 這時需要權衡準確性和其他因素。 ### 如何判斷模型是否欠擬合? 判斷模型是否欠擬合,可以觀察模型在訓練集和驗證集上的表現。 如果模型在兩個資料集上的表現都很差,且學習曲線顯示訓練誤差和驗證誤差都較高並趨於收斂,則很可能發生了欠擬合。 此外,還可以通過觀察模型的預測結果是否符合常識來判斷。 ### 增加資料量一定能解決欠擬合問題嗎? 增加資料量對於解決欠擬合問題的效果有限。 欠擬合的根本原因是模型複雜度不足,無法捕捉資料的潛在模式。 增加資料量可以幫助模型更好地學習,但如果模型本身太簡單,即使有再多的資料,也無法提高預測準確度。 因此,解決欠擬合問題的關鍵是增加模型複雜度或選擇更合適的模型。 --- 來源:https://aiterms.tw/terms/underfitting-1 快查頁:https://aiterms.tw/terms/underfitting-1 深度解說:https://aiterms.tw/learning/what-is-underfitting-1 --- # 欠擬合(Underfitting) 欠擬合指模型過於簡單,無法捕捉資料中的主要規律,訓練集與測試集的預測表現皆不理想 ## 完整說明 欠擬合是一種機器學習模型訓練過程中出現的現象,指的是模型無法捕捉訓練資料中的潛在關係,導致在訓練集和測試集上的表現都較差。這通常是因為模型過於簡單,例如使用線性模型擬合非線性資料。在 iPAS 考試中,理解欠擬合的成因以及如何透過增加模型複雜度或特徵工程來解決此問題至關重要。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 5%,屬於中頻考範圍。 常見出題方向: - 類神經網路架構(佔 40%) - 模型訓練與評估(佔 35%) - 防止過擬合的策略(佔 25%) ## 常見問題 ### 欠擬合對模型部署有什麼影響? 欠擬合的模型由於預測準確率低,無法滿足實際應用的需求,因此不適合直接部署。如果部署了欠擬合的模型,可能會導致錯誤的決策,造成經濟損失或其他不良後果。在部署模型之前,應確保模型具有足夠的準確率和泛化能力。 ### 如何判斷模型是否欠擬合? 判斷模型是否欠擬合,可以觀察模型在訓練集和驗證集上的表現。如果模型在訓練集上的準確率就很低,例如低於 70%,並且在驗證集上的準確率也同樣很低,則很可能存在欠擬合。此外,還可以觀察模型的學習曲線,如果學習曲線在訓練初期就趨於平緩,也可能表示模型欠擬合。 ### 除了增加模型複雜度,還有哪些方法可以緩解欠擬合? 除了增加模型複雜度,還可以通過以下方法緩解欠擬合: 1. 增加訓練資料:更多資料有助於模型學習到更全面的模式。 2. 特徵工程:提取更有代表性的特徵,有助於模型更好地理解資料。 3. 選擇更合適的演算法:某些演算法更適合處理複雜的資料關係。 4. 減少正則化:過度的正則化會限制模型的學習能力,導致欠擬合。 --- 來源:https://aiterms.tw/terms/underfitting 快查頁:https://aiterms.tw/terms/underfitting 深度解說:https://aiterms.tw/learning/what-is-underfitting --- # 次詞單元化(Subword Tokenization) 次詞單元化是將單詞拆分為更小的子單元(次詞)的技術,用於解決詞彙量過大和未登錄詞(OOV)問題,提升模型泛化能力。 ## 完整說明 次詞單元化是一種自然語言處理技術,旨在將單詞分解成更小的、有意義的子單元,稱為次詞。這種方法主要用於解決詞彙量過大以及處理未登錄詞(Out-of-Vocabulary,OOV)的問題。通過將罕見詞分解為常見的次詞,模型可以更好地理解和生成文本,提高泛化能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/subword-tokenization 快查頁:https://aiterms.tw/terms/subword-tokenization 深度解說:https://aiterms.tw/learning/what-is-subword-tokenization --- # 歐盟通用資料保護規範(General Data Protection Regulation) 歐盟通用資料保護規範是保障個人資料控制權的法規,違規企業將面臨高額罰款 ## 完整說明 歐盟通用資料保護規範 (General Data Protection Regulation, GDPR) 是一項歐盟法律,旨在保護歐盟公民的個人資料和隱私。它規範了個人資料的收集、使用、儲存和傳輸,並賦予個人對其資料的控制權。GDPR 對於涉及處理個人資料的 AI 應用具有重要影響,企業需要確保其 AI 系統符合 GDPR 的要求。 ## 常見問題 ### 如果公司違反 GDPR,會受到什麼樣的懲罰? 違反 GDPR 的公司可能面臨高達全球年營業額 4% 或 2000 萬歐元的罰款,以較高者為準。此外,還可能面臨聲譽損害、客戶流失和法律訴訟。因此,企業必須嚴格遵守 GDPR 的要求,確保個人資料得到妥善保護。 ### GDPR 中提到的「個人資料」具體包含哪些內容? GDPR 對於「個人資料」的定義非常廣泛,包括姓名、地址、電子郵件地址、IP 地址、位置資料、照片、社會安全號碼、醫療記錄、銀行帳戶資訊等。任何可以直接或間接識別個人的資訊都被視為個人資料,受到 GDPR 的保護。 ### 企業如何確保其雲端服務提供商符合 GDPR 的要求? 企業在選擇雲端服務提供商時,應仔細審查其隱私政策和資料保護措施,確保其符合 GDPR 的要求。應選擇提供符合 GDPR 要求的資料儲存和處理方案,並能協助企業處理資料主體權利請求的雲端服務提供商。此外,企業還應與雲端服務提供商簽訂資料處理協議(DPA),明確雙方的責任和義務。 --- 來源:https://aiterms.tw/terms/general-data-protection-regulation 快查頁:https://aiterms.tw/terms/general-data-protection-regulation 深度解說:https://aiterms.tw/learning/what-is-general-data-protection-regulation --- # 正則化(Regularization) 正則化是透過在損失函數中加入懲罰項,來限制模型複雜度,避免過度擬合的一種技術 ## 完整說明 正則化是一種用於防止機器學習模型過度擬合的技術。它通過在模型的損失函數中添加一個懲罰項,來限制模型的複雜度,從而提高模型在未見數據上的泛化能力。常見的正則化方法包括 L1 正則化和 L2 正則化,它們分別對模型的權重進行稀疏化和縮小。 ## 常見問題 ### 正則化參數(例如λ)如何選擇? 正則化參數的選擇通常使用交叉驗證(Cross-Validation)方法。將數據集分成多份,輪流使用其中一份作為驗證集,其他作為訓練集,評估不同正則化參數下模型的表現,選擇在驗證集上表現最佳的參數。常見方法有 k 折交叉驗證。 ### 正則化一定能提升模型的準確率嗎? 不一定。正則化的主要目的是提升模型的泛化能力,也就是在未見過的數據上的表現。在某些情況下,如果訓練數據本身就很具代表性,或者模型本身就很簡單,那麼使用正則化可能不會顯著提升準確率,甚至可能略微降低在訓練集上的準確率。 ### L1 和 L2 正則化可以同時使用嗎? 可以。同時使用 L1 和 L2 正則化的方法稱為 Elastic Net 正則化。它結合了 L1 正則化的稀疏性和 L2 正則化的穩定性,在某些情況下可以獲得更好的效果。Elastic Net 需要調整兩個超參數,分別對應 L1 和 L2 正則化的強度。 --- 來源:https://aiterms.tw/terms/regularization 快查頁:https://aiterms.tw/terms/regularization 深度解說:https://aiterms.tw/learning/what-is-regularization --- # 正規化(Normalization) 正規化是一種資料前處理技術,將資料縮放到一個單位範數,例如L1或L2範數,使每個樣本的向量長度為1。 ## 完整說明 正規化是一種資料前處理技術,旨在將資料集中每個樣本的特徵向量縮放到一個單位範數。這意味著每個樣本的向量長度(例如L1或L2範數)將被縮放到1。正規化主要用於處理具有不同尺度的特徵,並確保每個樣本對模型的貢獻是平等的。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/normalization 快查頁:https://aiterms.tw/terms/normalization 深度解說:https://aiterms.tw/learning/what-is-normalization --- # 殘差網路(ResNet) ResNet是一種深度學習模型,透過引入殘差連接解決深度神經網路訓練時的梯度消失問題,允許網路學習殘差映射而非直接映射。 ## 完整說明 殘差網路(ResNet)是一種革命性的深度學習架構,專為解決深度神經網路訓練中的梯度消失和梯度爆炸問題而設計。它通過引入殘差連接(Residual Connections)或跳躍連接(Skip Connections),允許網路學習殘差映射,從而更容易優化極深的網路。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/resnet 快查頁:https://aiterms.tw/terms/resnet 深度解說:https://aiterms.tw/learning/what-is-resnet --- # 殘差網路(Residual Network) 殘差網路 (ResNet) 是一種深度神經網路架構,透過引入殘差連接來解決深度網路的梯度消失問題,允許訓練非常深的網路。 ## 完整說明 殘差網路 (ResNet) 是一種革命性的深度神經網路架構,由 Microsoft Research 團隊於 2015 年提出。它透過引入殘差連接(或稱跳躍連接)來解決深度神經網路中常見的梯度消失問題,使得訓練非常深的網路成為可能。ResNet 的核心思想是學習殘差映射,而不是直接學習底層映射。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/residual-network 快查頁:https://aiterms.tw/terms/residual-network 深度解說:https://aiterms.tw/learning/what-is-residual-network --- # 決策樹(Decision Tree) 決策樹是一種透過 if-else 條件判斷,將資料逐步拆解為更純粹子集的模型,具備高度可解釋性 ## 完整說明 決策樹是一種基於樹狀結構進行決策的機器學習模型。它通過一系列的判斷規則,將數據逐步劃分到不同的葉節點,每個葉節點代表一個預測結果。決策樹易於理解和解釋,並且可以處理分類和回歸問題。然而,單棵決策樹容易過度擬合,因此通常會使用集成方法,如隨機森林和梯度提升樹,來提高模型的性能。 ## 常見問題 ### 決策樹如何處理缺失值? 決策樹可以透過多種方式處理缺失值,例如忽略包含缺失值的樣本,或使用其他樣本的值進行填補。更進階的方法是在選擇最佳特徵時,考慮缺失值對信息增益或 Gini 不純度的影響,並將缺失值作為一個單獨的分支進行處理。 ### 決策樹有哪些常見的剪枝策略? 決策樹的剪枝策略可以分為預剪枝 (Pre-pruning) 和後剪枝 (Post-pruning) 兩種。預剪枝是在樹的生長過程中,提前停止樹的生長,例如設定最大樹深度或最小樣本數。後剪枝是在樹完全生長完成後,自底向上地刪除一些節點,例如使用驗證集進行評估,刪除能夠提高泛化能力的節點。 ### 隨機森林 (Random Forest) 和決策樹有什麼關係? 隨機森林是一種集成學習演算法,它由多棵決策樹組成。每棵決策樹都是在原始資料的一個隨機子集上訓練的,並且在選擇最佳特徵時,只考慮一部分特徵。隨機森林透過集成多棵決策樹的預測結果,可以有效降低過擬合風險,提高模型的準確率和泛化能力。 --- 來源:https://aiterms.tw/terms/decision-tree 快查頁:https://aiterms.tw/terms/decision-tree 深度解說:https://aiterms.tw/learning/what-is-decision-tree --- # 泛化能力(Generalization) 泛化能力是指機器學習模型在未見過的數據上表現良好的能力。一個具有良好泛化能力的模型能夠從訓練數據中學習到普遍規律,並應用於新數據。 ## 完整說明 泛化能力是機器學習模型的核心目標。一個好的模型不僅要在訓練數據上表現良好,更重要的是能夠在未見過的數據上也能做出準確的預測。泛化能力強的模型能夠捕捉到數據中的本質規律,避免過度擬合訓練數據,從而更好地適應新的、未知的數據。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/generalization 快查頁:https://aiterms.tw/terms/generalization 深度解說:https://aiterms.tw/learning/what-is-generalization --- # 波形網路(WaveNet) WaveNet是一種深度生成模型,直接對原始音訊波形進行建模,能夠生成高品質的語音和音樂,並在語音合成領域取得了顯著的成果。 ## 完整說明 WaveNet是一種基於深度學習的生成模型,它直接對原始音訊波形進行建模,而不是像傳統方法那樣對音訊特徵進行建模。WaveNet使用因果卷積和膨脹卷積來捕捉音訊訊號的長期依賴關係,能夠生成高品質的語音和音樂,並在語音合成領域取得了顯著的成果。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/wavenet 快查頁:https://aiterms.tw/terms/wavenet 深度解說:https://aiterms.tw/learning/what-is-wavenet --- # 注意力可視化(Attention Visualization) 注意力可視化是一種技術,用於呈現神經網路模型在處理輸入時,將注意力集中在哪些部分。它能幫助理解模型決策過程,並診斷潛在問題。 ## 完整說明 注意力可視化是一種解釋性AI技術,旨在揭示神經網路模型在做出預測或決策時,將注意力集中在輸入數據的哪些區域。通過視覺化注意力權重,可以深入了解模型的推理過程,驗證其是否基於合理的特徵,並診斷模型可能存在的偏差或錯誤。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/attention-visualization 快查頁:https://aiterms.tw/terms/attention-visualization 深度解說:https://aiterms.tw/learning/what-is-attention-visualization --- # 注意力機制(Attention Mechanism) 注意力機制讓神經網路在處理序列資料時,動態分配不同位置的關注權重,提升長距離依賴的捕捉能力 ## 完整說明 注意力機制是一種讓神經網路能夠專注於輸入序列中重要部分的技術。它通過計算每個輸入元素的權重,並將這些權重應用於輸入,來突出重要信息,抑制不重要信息。注意力機制廣泛應用於自然語言處理任務,如機器翻譯和文本摘要,在 iPAS 中級考試中,理解注意力機制的原理和應用是重要的。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 注意力機制可以完全取代循環神經網路嗎? 注意力機制在許多任務中表現優於循環神經網路,尤其是在處理長序列時。然而,它們並非完全互斥。在某些情況下,將兩者結合使用可以獲得更好的效果。例如,可以使用循環神經網路來提取序列的初步特徵,然後使用注意力機制來選擇性地關注這些特徵。 ### 注意力機制的計算複雜度如何? 注意力機制的計算複雜度取決於具體的實現方式。一般來說,計算複雜度與輸入序列的長度成正比。對於長序列,計算注意力權重可能會消耗大量的計算資源。因此,在實際應用中,需要權衡模型的效能和計算成本。 ### 注意力機制是否只能用於序列資料? 雖然注意力機制最初是為了解決序列資料處理問題而設計的,但它也可以應用於其他類型的資料。例如,在電腦視覺領域,注意力機制可以用於選擇性地關注圖像中的不同區域,從而提升圖像分類或目標檢測的效能。 --- 來源:https://aiterms.tw/terms/attention-mechanism 快查頁:https://aiterms.tw/terms/attention-mechanism 深度解說:https://aiterms.tw/learning/what-is-attention-mechanism --- # 流程協調(Orchestration) 流程協調是指自動化安排、協調和管理複雜的計算機系統、應用程式和服務的過程,以實現特定目標。 ## 完整說明 流程協調是一種自動化 IT 任務的策略,涉及安排、協調和管理多個系統、應用程式和服務,使其協同工作以實現特定業務目標。它簡化了複雜的工作流程,提高了效率,並減少了手動干預的需求,從而降低成本和錯誤。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/orchestration 快查頁:https://aiterms.tw/terms/orchestration 深度解說:https://aiterms.tw/learning/what-is-orchestration --- # 深度Q網路(Deep Q-Network) 深度Q網路(DQN)是一種結合深度學習與Q學習的強化學習演算法,利用深度神經網路逼近Q函數,解決高維度狀態空間的強化學習問題。 ## 完整說明 深度Q網路(DQN)是強化學習領域的突破性演算法,它使用深度神經網路來近似Q函數,從而能夠處理具有高維度狀態空間的強化學習問題。DQN結合了Q學習的決策能力和深度學習的表徵學習能力,使得智能體能夠從原始感官輸入中學習策略。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/deep-q-network 快查頁:https://aiterms.tw/terms/deep-q-network 深度解說:https://aiterms.tw/learning/what-is-deep-q-network --- # 深度偽造(Deepfake) 深度偽造是利用深度學習技術合成的逼真音訊、圖像或影片,通常用於製造假新聞、詐騙或惡意中傷。 ## 完整說明 深度偽造(Deepfake)是利用深度學習技術,特別是生成對抗網路(GANs),合成的逼真音訊、圖像或影片。這些合成內容可以將一個人的臉或聲音替換成另一個人,或者創造出從未發生過的事件。深度偽造技術的快速發展帶來了嚴重的倫理和社會問題,例如製造假新聞、詐騙、惡意中傷和損害個人聲譽。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/deepfake 快查頁:https://aiterms.tw/terms/deepfake 深度解說:https://aiterms.tw/learning/what-is-deepfake --- # 深度偽造偵測(Deepfake Detection) 深度偽造偵測旨在辨識經由深度學習技術偽造或操縱的影音內容,以防止不實資訊傳播和維護資訊真實性。 ## 完整說明 深度偽造偵測是一項關鍵技術,旨在辨識和揭露利用深度學習演算法(如生成對抗網路GAN)創建或操縱的影音內容。其目標是防止深度偽造技術被濫用,例如散布假新聞、進行詐騙或損害個人聲譽,從而維護社會的資訊安全和信任。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/deepfake-detection 快查頁:https://aiterms.tw/terms/deepfake-detection 深度解說:https://aiterms.tw/learning/what-is-deepfake-detection --- # 深度協同過濾(Deep Collaborative Filtering) 深度協同過濾結合深度學習與協同過濾,利用神經網路學習使用者和物品的隱藏表示,以提升推薦準確度,尤其在處理複雜互動模式時。 ## 完整說明 深度協同過濾是一種推薦系統技術,它將深度學習模型融入傳統的協同過濾框架中。透過神經網路學習使用者和物品的潛在表示,能夠捕捉更複雜的互動模式,從而提升推薦的準確性和效果。相較於傳統方法,更能處理非線性關係。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/deep-collaborative-filtering 快查頁:https://aiterms.tw/terms/deep-collaborative-filtering 深度解說:https://aiterms.tw/learning/what-is-deep-collaborative-filtering --- # 深度學習(Deep Learning) 深度學習是透過多層神經網路自動從原始資料中提取階層特徵的機器學習方法 ## 完整說明 深度學習是一種基於多層神經網路的機器學習方法。它通過學習數據的層次化表示,能夠自動提取複雜的特徵,從而解決傳統機器學習方法難以處理的問題。深度學習在圖像識別、語音辨識和自然語言處理等領域取得了顯著的成果。在 iPAS 初級和中級考試中,深度學習的基本概念和常見模型是重要的考點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 各類學習範式的定義與比較(佔 45%) - 適用場景判斷(佔 35%) - 演算法優缺點分析(佔 20%) ## 常見問題 ### 深度學習和機器學習有什麼不同? 深度學習是機器學習的一個子集,主要區別在於特徵提取方式。傳統機器學習需要人工設計特徵,而深度學習可以自動學習。深度學習通常使用多層神經網路,擅長處理高維度數據,而傳統機器學習在數據量較小或特徵明確時可能更有效。 ### 什麼時候應該使用深度學習? 當數據量大、結構複雜,人工難以提取有效特徵時,應考慮深度學習。例如,處理圖像、語音、文本等非結構化數據。此外,計算資源充足也是使用深度學習的有利條件。如果目標是達到 95% 以上的準確率,且有足夠的數據支持,深度學習通常是個不錯的選擇。 ### 初學者學習深度學習最常見的誤解是什麼? 初學者常誤以為深度學習是萬能的。實際上,深度學習只是一種工具,有優缺點。選擇前需評估問題性質、數據質量和數量、計算資源等。盲目使用可能事倍功半。此外,容易忽略數據預處理,認為模型能自動處理所有問題。 --- 來源:https://aiterms.tw/terms/deep-learning 快查頁:https://aiterms.tw/terms/deep-learning 深度解說:https://aiterms.tw/learning/what-is-deep-learning --- # 深度強化學習(Deep Reinforcement Learning) 深度強化學習結合深度學習與強化學習,透過深度神經網路學習複雜策略,以在特定環境中最大化累積獎勵。 ## 完整說明 深度強化學習(Deep Reinforcement Learning, DRL)是強化學習的一個分支,它利用深度神經網路來處理高維度的狀態空間和動作空間。DRL 結合了強化學習的決策能力和深度學習的感知能力,使得智能體能夠從原始感官輸入中學習複雜的策略,並在複雜的環境中做出最佳決策,以最大化累積獎勵。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/deep-reinforcement-learning 快查頁:https://aiterms.tw/terms/deep-reinforcement-learning 深度解說:https://aiterms.tw/learning/what-is-deep-reinforcement-learning --- # 深度混合(Mixture of Depths) 深度混合是一種模型架構,它結合了多個不同深度的子網路,以提升模型的表達能力和泛化能力,並允許模型根據輸入動態調整其深度。 ## 完整說明 深度混合是一種模型架構,它通過組合多個不同深度的子網路來構建更強大的模型。每個子網路負責處理不同複雜度的特徵,模型可以根據輸入數據的特性,動態地選擇使用哪些子網路。這種架構可以提高模型的表達能力和泛化能力,並允許模型在計算資源和性能之間進行權衡。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mixture-of-depths 快查頁:https://aiterms.tw/terms/mixture-of-depths 深度解說:https://aiterms.tw/learning/what-is-mixture-of-depths --- # 混合搜尋(Hybrid Search) 混合搜尋結合了多種搜尋技術,例如關鍵字搜尋和語義搜尋,以提高搜尋結果的相關性和準確性,提供更全面的資訊。 ## 完整說明 混合搜尋是一種結合多種搜尋技術的策略,旨在克服單一搜尋方法的局限性,提供更全面和相關的搜尋結果。它通常結合了傳統的關鍵字搜尋和更先進的語義搜尋,以及其他相關技術,以提高搜尋的準確性和效率。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/hybrid-search 快查頁:https://aiterms.tw/terms/hybrid-search 深度解說:https://aiterms.tw/learning/what-is-hybrid-search --- # 混合精度訓練(Mixed Precision Training) 混合精度訓練是一種使用不同精度(如 FP16 和 FP32)的浮點數進行模型訓練的技術,旨在加速訓練過程並減少記憶體佔用。 ## 完整說明 混合精度訓練是一種深度學習訓練技術,它利用不同精度的浮點數格式(例如 FP16 和 FP32)來加速訓練過程並減少記憶體使用量。通常,模型的大部分計算使用 FP16 進行,而一些對精度要求較高的操作(例如梯度累加)則使用 FP32 進行,以保持模型的穩定性和準確性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mixed-precision-training 快查頁:https://aiterms.tw/terms/mixed-precision-training 深度解說:https://aiterms.tw/learning/what-is-mixed-precision-training --- # 測試時運算(Test-time Compute) 測試時運算是指在模型部署後,進行推論時所使用的運算資源。目標是在效能和延遲之間取得平衡,以滿足實際應用需求。 ## 完整說明 測試時運算是指在模型部署後,實際使用模型進行推論時所消耗的運算資源。這包括 CPU、GPU、記憶體以及其他硬體資源的使用。目標是在模型的效能(例如準確度)和推論速度(延遲)之間取得平衡,以滿足實際應用的需求。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/test-time-compute 快查頁:https://aiterms.tw/terms/test-time-compute 深度解說:https://aiterms.tw/learning/what-is-test-time-compute --- # 測試資料集(Test Set) 測試資料集用於評估模型在未見過資料上的泛化能力,是模型效能的最終指標,在模型部署前使用。 ## 完整說明 測試資料集是機器學習模型開發完成後,用於評估模型在未見過資料上的泛化能力的獨立資料集。它與訓練資料集和驗證資料集不同,主要目的是提供一個最終的、不帶偏差的評估,以衡量模型在實際應用中的效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/test-set 快查頁:https://aiterms.tw/terms/test-set 深度解說:https://aiterms.tw/learning/what-is-test-set --- # 湧現能力(Emergent Abilities) 湧現能力是指大型語言模型在達到一定規模後,突然展現出在較小模型中未曾觀察到的複雜能力,例如推理、翻譯和程式碼生成。 ## 完整說明 湧現能力是指大型語言模型在模型規模達到一定閾值後,突然展現出在較小模型中未曾觀察到的複雜能力。這些能力並非通過顯式編程或訓練獲得,而是隨著模型規模的擴大,模型內部複雜的交互作用自發產生的。湧現能力是大型語言模型的一個重要特性,也是其能夠執行複雜任務的基礎。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/emergent-abilities 快查頁:https://aiterms.tw/terms/emergent-abilities 深度解說:https://aiterms.tw/learning/what-is-emergent-abilities --- # 準確率(Accuracy) 所有預測中正確的比例 = (TP+TN)/(全部)。類別不平衡時容易被多數類主導 ## 完整說明 準確率是一種常用的模型評估指標,用於衡量分類模型預測正確的比例。它通過計算預測正確的樣本數量與總樣本數量之比來得到。準確率簡單易懂,但當數據集存在類別不平衡時,準確率可能會產生誤導。在 iPAS 初級考試中,理解準確率的計算方法和局限性是重要的。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 1%,屬於未分類考範圍。 ## 常見問題 ### 準確率在什麼情況下會失效? 準確率在類別不平衡的資料集中容易失效。例如,如果一個資料集中 99% 的樣本屬於 A 類,而只有 1% 的樣本屬於 B 類,即使模型將所有樣本都預測為 A 類,也能達到 99% 的準確率,但實際上這個模型完全無法識別 B 類。 ### 如何提高模型的準確率? 提高模型準確率的方法包括:清洗和預處理資料、選擇合適的模型架構、調整模型參數、使用集成學習方法、以及增加訓練資料量。此外,針對類別不平衡問題,可以使用過採樣或欠採樣等技術來平衡資料集。 ### 準確率可以作為唯一的模型評估指標嗎? 準確率不應該作為唯一的模型評估指標,尤其是在類別不平衡的情況下。應該結合其他指標,如精確度、召回率、F1 分數和 AUC-ROC 等,進行綜合評估,才能更全面地了解模型的性能。 --- 來源:https://aiterms.tw/terms/accuracy 快查頁:https://aiterms.tw/terms/accuracy 深度解說:https://aiterms.tw/learning/what-is-accuracy --- # 演員-評論家(Actor-Critic) 演員-評論家是一種強化學習演算法,結合了策略梯度(演員)和時序差分學習(評論家)的優點,以實現更穩定的學習。 ## 完整說明 演員-評論家方法是一種強化學習演算法,它同時學習策略(演員)和價值函數(評論家)。演員負責選擇動作,而評論家負責評估演員的動作,並提供回饋以改進策略。這種結合有助於克服單獨使用策略梯度或價值函數方法的局限性,並實現更穩定和高效的學習。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/actor-critic 快查頁:https://aiterms.tw/terms/actor-critic 深度解說:https://aiterms.tw/learning/what-is-actor-critic --- # 演算法(Algorithm) 演算法是一組定義明確的指令,用於解決特定問題或執行特定任務。它接收輸入,經過一系列步驟處理,並產生輸出。 ## 完整說明 演算法是一組定義明確的、有序的指令,用於解決特定問題或執行特定任務。它接收輸入,經過一系列步驟的處理,最終產生輸出。演算法必須是明確的、有限的、有效的,並且能夠在有限的時間內完成任務。演算法是電腦科學的核心概念,廣泛應用於各個領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/algorithm 快查頁:https://aiterms.tw/terms/algorithm 深度解說:https://aiterms.tw/learning/what-is-algorithm --- # 演算法交易(Algorithmic Trading) 演算法交易是指利用電腦程式自動執行交易指令,根據預先設定的規則和模型,在金融市場上進行買賣操作。 ## 完整說明 演算法交易是一種利用電腦程式自動執行交易指令的方法。它基於預先設定的規則、數學模型和統計分析,在金融市場上自動進行買賣操作。演算法交易旨在提高交易效率、降低交易成本、並利用市場中的微小價格差異獲利。這種交易方式在現代金融市場中扮演著越來越重要的角色。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/algorithmic-trading 快查頁:https://aiterms.tw/terms/algorithmic-trading 深度解說:https://aiterms.tw/learning/what-is-algorithmic-trading --- # 潛在擴散模型(Latent Diffusion Model) 潛在擴散模型(LDM)是一種生成式AI模型,透過在潛在空間中進行擴散和逆擴散過程,生成高解析度、高品質的圖像或其他資料。 ## 完整說明 潛在擴散模型(LDM)是一種基於擴散模型的生成式AI模型,它將擴散和逆擴散過程應用於資料的潛在空間,而非原始像素空間。這種方法顯著降低了計算複雜度,使得生成高解析度圖像成為可能。LDM在圖像生成、圖像編輯和視訊生成等領域表現出色。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/latent-diffusion-model 快查頁:https://aiterms.tw/terms/latent-diffusion-model 深度解說:https://aiterms.tw/learning/what-is-latent-diffusion-model --- # 潛在空間(Latent Space) 潛在空間是機器學習模型學習到的高維資料的壓縮表示,它捕捉了資料的底層結構和關係,並將其映射到一個低維空間。 ## 完整說明 潛在空間 (Latent Space) 是機器學習,特別是深度學習中一個重要的概念。它指的是模型學習到的資料的壓縮、抽象表示。原始資料通常存在於高維空間中,而潛在空間則是一個低維空間,模型將原始資料映射到這個空間,並在這個空間中捕捉資料的底層結構、關係和模式。潛在空間的維度通常遠小於原始資料的維度,因此可以有效地降低資料的複雜度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/latent-space 快查頁:https://aiterms.tw/terms/latent-space 深度解說:https://aiterms.tw/learning/what-is-latent-space --- # 無伺服器機器學習(Serverless ML) 無伺服器機器學習是一種雲端運算模型,允許開發者在無需管理伺服器的情況下構建、訓練和部署機器學習模型,按實際使用量付費。 ## 完整說明 無伺服器機器學習是一種雲端運算服務,它簡化了機器學習模型的開發、訓練和部署流程。開發者無需配置或管理底層伺服器基礎設施,只需專注於模型本身。雲端平台會自動處理資源分配、擴展和維護,並根據實際使用量計費,從而降低成本和運營複雜性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/serverless-ml 快查頁:https://aiterms.tw/terms/serverless-ml 深度解說:https://aiterms.tw/learning/what-is-serverless-ml --- # 無程式碼(No Code) 無程式碼是一種開發平台,讓使用者無需編寫任何程式碼,也能建立應用程式或自動化流程 ## 完整說明 無程式碼是一種軟體開發方法,允許使用者在不編寫任何程式碼的情況下建立應用程式。它通常使用圖形化使用者介面和預先建構的元件,讓使用者能夠透過拖放和配置來設計應用程式。無程式碼平台旨在降低開發門檻,讓非技術人員也能夠快速建立和部署應用程式。 ## 常見問題 ### 無程式碼平台是否安全? 無程式碼平台的安全性取決於平台供應商的安全措施。使用者應選擇信譽良好、具有完善安全機制的平台,並定期檢查平台的安全性更新。此外,使用者也應注意保護自己的帳戶安全,避免使用弱密碼或洩露個人資訊。 ### 無程式碼平台的價格如何? 無程式碼平台的價格因平台而異,通常採用訂閱制或按使用量計費。一些平台提供免費版本,但功能可能有限制。使用者應根據自己的需求選擇合適的價格方案。 ### 無程式碼平台是否適合大型企業? 無程式碼平台可以幫助大型企業加速創新、提高敏捷性,並降低開發成本。然而,大型企業需要仔細評估無程式碼平台的安全性、可擴展性和整合能力,並確保其符合企業的IT策略和安全規範。 --- 來源:https://aiterms.tw/terms/no-code 快查頁:https://aiterms.tw/terms/no-code 深度解說:https://aiterms.tw/learning/what-is-no-code --- # 焦點損失函數(Focal Loss) 焦點損失函數 (Focal Loss) 是一種用於解決物件偵測中類別不平衡問題的損失函數,它通過降低易分類樣本的權重,使模型更關注難分類樣本。 ## 完整說明 焦點損失函數 (Focal Loss) 是一種旨在解決物件偵測任務中類別不平衡問題的損失函數。在物件偵測中,通常存在大量的背景樣本(易分類樣本)和少量的物件樣本(難分類樣本)。Focal Loss 通過降低易分類樣本的權重,使模型更關注難分類樣本,從而提高物件偵測的性能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/focal-loss 快查頁:https://aiterms.tw/terms/focal-loss 深度解說:https://aiterms.tw/learning/what-is-focal-loss --- # 熵(Entropy) 熵是資訊理論中衡量隨機變數不確定性的指標,數值越高代表不確定性越大。在機器學習中,熵常用於特徵選擇和決策樹構建。 ## 完整說明 熵在資訊理論中,是用於衡量隨機變數不確定性的指標。熵越高,代表變數的可能取值越多,不確定性越大。在機器學習中,熵被廣泛應用於特徵選擇、決策樹構建以及模型評估等方面,是理解資料分布和模型性能的重要工具。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/entropy 快查頁:https://aiterms.tw/terms/entropy 深度解說:https://aiterms.tw/learning/what-is-entropy --- # 物件偵測(Object Detection) 物件偵測是一種電腦視覺技術,用於識別影像或影片中特定物件的位置和類別,常用於自動駕駛、安全監控、零售分析等。 ## 完整說明 物件偵測是一種電腦視覺技術,用於在影像或影片中識別特定物件的實例,並確定它們的位置。它不僅要識別物件的類別(例如,人、車、狗),還要定位它們在影像中的位置(通常使用邊界框)。常見應用包括自動駕駛以識別行人和其他車輛、安全監控以檢測異常活動、以及零售分析以追蹤顧客行為。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/object-detection 快查頁:https://aiterms.tw/terms/object-detection 深度解說:https://aiterms.tw/learning/what-is-object-detection --- # 特徵值(Eigenvalue) 特徵值是線性變換作用於向量後,該向量長度縮放的比例。它描述了變換對特定方向向量的影響程度。 ## 完整說明 特徵值(Eigenvalue)是線性代數中的一個重要概念。對於給定的線性變換,特徵值代表了該變換作用於某個非零向量(特徵向量)後,向量長度縮放的比例。換句話說,特徵值描述了線性變換在特定方向上的變形程度。特徵值可以是實數或複數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/eigenvalue 快查頁:https://aiterms.tw/terms/eigenvalue 深度解說:https://aiterms.tw/learning/what-is-eigenvalue --- # 特徵儲存庫(Feature Store) 特徵儲存庫是一個集中管理和共享機器學習特徵的平台,確保特徵一致性、可重用性,並簡化特徵工程流程。 ## 完整說明 特徵儲存庫是一種集中管理和共享機器學習特徵的平台。它用於確保特徵在訓練和推論階段的一致性,提高特徵的可重用性,並簡化特徵工程流程。常見應用包括加速模型開發、減少特徵重複計算和提高模型性能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/feature-store 快查頁:https://aiterms.tw/terms/feature-store 深度解說:https://aiterms.tw/learning/what-is-feature-store --- # 特徵向量(Eigenvector) 特徵向量是指在線性變換下,方向保持不變或僅反向的非零向量。它對應於特定的特徵值,代表變換的主要作用方向。 ## 完整說明 特徵向量(Eigenvector)是線性代數中的一個重要概念。對於給定的線性變換,特徵向量是指在該變換下,方向保持不變或僅反向的非零向量。每個特徵向量都對應於一個特定的特徵值,該特徵值描述了變換對該特徵向量的縮放比例。特徵向量代表了線性變換的主要作用方向。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/eigenvector 快查頁:https://aiterms.tw/terms/eigenvector 深度解說:https://aiterms.tw/learning/what-is-eigenvector --- # 特徵工程(Feature Engineering) 特徵工程透過創建、轉換與選擇原始資料的代表性特徵,顯著提升機器學習模型的預測效果 ## 完整說明 特徵工程是一種將原始資料轉換為更適合機器學習模型使用的特徵的過程。它涉及選擇、轉換和建立新的特徵,以提高模型的效能和準確性。良好的特徵工程能夠顯著提升模型的預測能力。在 iPAS 考試中,特徵工程是評估候選人資料處理和模型優化能力的重要環節。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - 特徵工程的步驟與方法(佔 45%) - 資料前處理技術辨別(佔 35%) - 特徵選取與轉換方法(佔 20%) ## 常見問題 ### 特徵工程和資料清理有什麼不同? 特徵工程旨在提升模型效能,透過提取、轉換和選擇特徵,使模型更容易學習資料中的模式。而資料清理則側重於確保資料的準確性、完整性和一致性,移除或修正錯誤、缺失或不一致的資料。兩者目標不同,但都是資料預處理的重要環節。 ### 什麼時候應該使用特徵工程? 當機器學習模型在原始資料上的表現不佳,或者希望提升模型效能時,就應該考慮使用特徵工程。此外,當對業務領域有深入的理解,並且能夠從原始資料中提取出有意義的特徵時,特徵工程也能發揮更大的作用。 ### 初學者學習特徵工程最常見的誤解是什麼? 初學者最常見的誤解是認為特徵工程是一個一次性的過程。實際上,特徵工程是一個迭代的過程,需要不斷地嘗試和調整,才能找到最佳的特徵組合。需要持續驗證和優化,才能達到最佳效果。 --- 來源:https://aiterms.tw/terms/feature-engineering 快查頁:https://aiterms.tw/terms/feature-engineering 深度解說:https://aiterms.tw/learning/what-is-feature-engineering --- # 特徵縮放(Feature Scaling) 特徵縮放是一種資料前處理技術,用於將不同範圍的特徵值縮放到一個統一的範圍內,避免某些特徵主導模型訓練。 ## 完整說明 特徵縮放是一種資料前處理技術,旨在將資料集中不同特徵的數值範圍調整到一個相似的尺度。這對於許多機器學習演算法至關重要,因為它可以防止具有較大數值的特徵在模型訓練過程中佔據主導地位,從而影響模型的效能和準確性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/feature-scaling 快查頁:https://aiterms.tw/terms/feature-scaling 深度解說:https://aiterms.tw/learning/what-is-feature-scaling --- # 特徵選擇法(Feature Selection) 特徵選擇是機器學習中選擇最相關特徵子集的過程,旨在簡化模型、提高準確性、減少過擬合和提升模型的可解釋性。 ## 完整說明 特徵選擇是機器學習和統計建模中的一個重要步驟,它涉及從原始特徵集合中選擇一個最相關和資訊量最大的特徵子集。其目標是簡化模型、提高預測準確性、減少過擬合、降低計算成本,並提升模型的可解釋性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/feature-selection 快查頁:https://aiterms.tw/terms/feature-selection 深度解說:https://aiterms.tw/learning/what-is-feature-selection --- # 特徵金字塔網路(Feature Pyramid Network) 特徵金字塔網路(FPN)是一種用於目標檢測的深度學習架構,旨在從不同尺度的特徵圖中提取豐富的語義信息,以提升小目標的檢測性能。 ## 完整說明 特徵金字塔網路(FPN)是一種在目標檢測中常用的架構,它通過構建多尺度的特徵金字塔,使得模型能夠更好地檢測不同大小的目標。FPN利用了卷積神經網路中不同層級的特徵圖,並通過自上而下的連接和橫向連接,將高層的語義信息傳遞到低層,從而增強低層特徵圖的表達能力,尤其對於小目標的檢測至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/feature-pyramid-network 快查頁:https://aiterms.tw/terms/feature-pyramid-network 深度解說:https://aiterms.tw/learning/what-is-feature-pyramid-network --- # 狀態機模型(State Machine) 狀態機模型是一種計算模型,系統在任何給定時間都處於有限數量的狀態之一,並根據輸入在狀態之間轉換。 ## 完整說明 狀態機模型是一種計算模型,將系統的行為描述為一組狀態、狀態之間的轉換以及觸發這些轉換的事件。系統在任何給定時間都處於一個狀態,接收到輸入後,系統會根據當前狀態和輸入,轉換到另一個狀態或保持在同一狀態。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/state-machine 快查頁:https://aiterms.tw/terms/state-machine 深度解說:https://aiterms.tw/learning/what-is-state-machine --- # 狀態空間模型(State Space Model) 狀態空間模型是一種數學模型,用於描述系統隨時間演變的狀態。它包含狀態方程和觀測方程,廣泛應用於控制、預測和訊號處理。 ## 完整說明 狀態空間模型是一種用於描述動態系統的數學模型。它使用一組狀態變數來表示系統的內部狀態,並使用狀態方程和觀測方程來描述系統的演變。狀態空間模型廣泛應用於控制工程、時間序列分析、訊號處理和機器學習等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/state-space-model 快查頁:https://aiterms.tw/terms/state-space-model 深度解說:https://aiterms.tw/learning/what-is-state-space-model --- # 獎勵函數(Reward Function) 獎勵函數是強化學習中定義代理在特定狀態下採取特定動作後獲得的獎勵的函數,用於引導代理學習期望行為。 ## 完整說明 獎勵函數是強化學習的核心組成部分,它定義了代理在特定狀態下採取特定動作後獲得的獎勵。獎勵函數的設計至關重要,因為它直接影響代理學習到的行為。一個好的獎勵函數應該能夠明確地表達期望的行為,並避免產生不期望的副作用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/reward-function 快查頁:https://aiterms.tw/terms/reward-function 深度解說:https://aiterms.tw/learning/what-is-reward-function --- # 獎勵建模(Reward Modeling) 獎勵建模是訓練AI模型以預測人類對不同結果的偏好,用於強化學習中,引導模型學習符合人類價值的行為。 ## 完整說明 獎勵建模是一種訓練人工智慧模型,尤其是強化學習模型,以預測人類對不同結果或行為的偏好或價值的技術。其目標是創建一個獎勵函數,該函數能夠準確地反映人類的價值觀和目標,從而引導模型學習符合人類期望的行為。獎勵建模通常涉及收集人類的回饋數據,例如偏好比較或評分,然後使用這些數據來訓練一個預測模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/reward-modeling 快查頁:https://aiterms.tw/terms/reward-modeling 深度解說:https://aiterms.tw/learning/what-is-reward-modeling --- # 獨熱編碼(One-hot Encoding) 獨熱編碼是一種將類別資料轉換為二元向量的方法,為每個類別建立獨立欄位,存在時標記為 1,其餘為 0 ## 完整說明 獨熱編碼是一種將類別型資料轉換為數值型資料的技術。它為每個類別建立一個新的二元特徵,並將該類別對應的特徵值設為 1,其餘特徵值設為 0。獨熱編碼能夠讓機器學習模型更好地處理類別型資料,避免模型誤解類別之間的順序關係。 ## 常見問題 ### 獨熱編碼後的向量長度是多少? 獨熱編碼後的向量長度等於類別型特徵中不同類別的總數。例如,如果一個特徵有 5 個不同的類別,那麼經過獨熱編碼後,每個類別都會被轉換成一個長度為 5 的向量。 ### 獨熱編碼會增加模型的複雜度嗎? 是的,獨熱編碼會增加模型的複雜度,特別是在類別數量非常多的情況下。維度增加會導致計算量增加,並可能導致過擬合。因此,在使用獨熱編碼時,需要權衡其優缺點。 ### 除了獨熱編碼,還有哪些處理類別型資料的方法? 除了獨熱編碼,還有標籤編碼、順序編碼、詞嵌入和目標編碼等方法。選擇哪種方法取決於具體的應用場景和資料特性。例如,詞嵌入通常用於自然語言處理,而目標編碼通常用於推薦系統。 --- 來源:https://aiterms.tw/terms/one-hot-encoding 快查頁:https://aiterms.tw/terms/one-hot-encoding 深度解說:https://aiterms.tw/learning/what-is-one-hot-encoding --- # 環狀注意力(Ring Attention) 環狀注意力是一種分散式注意力機制,將注意力計算分散到多個設備上,減少單一設備的記憶體需求,適用於超大型模型。 ## 完整說明 環狀注意力是一種針對超大型模型設計的分散式注意力機制。它將注意力計算分散到多個設備(例如GPU)上,每個設備只儲存部分注意力矩陣,並透過環狀通信的方式交換資訊。這種方法顯著降低了單一設備的記憶體需求,使得訓練和部署超大型模型成為可能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ring-attention 快查頁:https://aiterms.tw/terms/ring-attention 深度解說:https://aiterms.tw/learning/what-is-ring-attention --- # 生成對抗網路(Generative Adversarial Network) 生成對抗網路是一種透過生成器與鑑別器互相對抗學習,最終使生成器能產出逼真資料的深度學習模型 ## 完整說明 生成對抗網路 (GAN) 是一種生成式模型,由生成器和鑑別器兩個神經網路組成。生成器的目標是生成逼真的資料,而鑑別器的目標是區分生成器生成的資料和真實資料。這兩個網路互相對抗,不斷學習和改進,最終生成器能夠生成非常逼真的資料。在 iPAS 考試中,GAN 的概念和應用是評估候選人對生成式 AI 理解的重要部分。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 生成對抗網路在資料量小的專案中,有什麼具體的應用策略? 在資料量小的專案中,生成對抗網路可以作為資料增強的工具。可以利用現有的少量資料訓練 GAN,生成更多與真實資料相似的假資料,擴充訓練集,提升模型的泛化能力。例如,在醫療影像診斷中,可以利用 GAN 生成罕見疾病的影像,幫助醫生更精準地診斷疾病。但需注意,生成資料的品質直接影響模型效果,需謹慎評估。 ### 如何判斷生成對抗網路是否出現了模式崩潰(mode collapse)? 模式崩潰是指生成器只生成少數幾種樣本,無法覆蓋整個數據分布。可以通過觀察生成器生成的樣本是否多樣化來判斷是否出現模式崩潰。如果生成器生成的樣本都非常相似,缺乏多樣性,則很可能出現了模式崩潰。此外,還可以通過計算生成樣本的熵值來判斷,熵值越低,表示樣本的多樣性越差。 ### 在選擇生成對抗網路的網路架構時,有哪些需要考慮的因素? 在選擇生成對抗網路的網路架構時,需要考慮數據的特性、計算資源的限制和任務的需求。例如,對於圖像生成任務,可以選擇卷積神經網路(CNN)作為生成器和鑑別器的基本架構。如果計算資源有限,可以選擇較小的網路模型,或者使用一些模型壓縮技術。此外,還需要考慮任務的複雜度,如果任務比較複雜,可能需要選擇更深層次的網路模型。 --- 來源:https://aiterms.tw/terms/generative-adversarial-network 快查頁:https://aiterms.tw/terms/generative-adversarial-network 深度解說:https://aiterms.tw/learning/what-is-generative-adversarial-network --- # 生成式預訓練模型(GPT) GPT是一種基於Transformer架構的大型語言模型,透過預訓練學習大量文本資料,用於生成文本、翻譯語言、回答問題等。 ## 完整說明 GPT (Generative Pre-trained Transformer) 是一種基於 Transformer 架構的大型語言模型,用於生成文本。它透過在大量未標記的文本資料上進行預訓練,學習語言的模式和結構,能夠生成連貫、有意義且多樣化的文本。常見應用包括文本生成、語言翻譯、問答系統和程式碼生成。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/gpt 快查頁:https://aiterms.tw/terms/gpt 深度解說:https://aiterms.tw/learning/what-is-gpt --- # 生成式預訓練轉換器(Generative Pre-trained Transformer) OpenAI 的自回歸語言模型,一個字接一個字生成文本,只使用 Decoder 架構 ## 完整說明 生成式預訓練轉換器 (GPT) 是一種基於 Transformer 架構的大型語言模型。它首先在大量的文本資料上進行預訓練,學習語言的通用表示,然後可以針對特定任務進行微調。GPT 模型能夠生成連貫且有意義的文本,並在各種自然語言處理任務中表現出色。在 iPAS 考試中,GPT 的原理和應用是評估候選人對大型語言模型理解的重要環節。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 生成式預訓練轉換器如何處理長文本輸入? 由於 Transformer 架構的複雜度,直接處理極長文本會消耗大量資源。常見的處理方式包括將長文本分割成較小的塊,或者使用長文本處理的變體模型,例如 Transformer-XL 或 Longformer,這些模型在架構上進行了優化,以處理更長的序列。 ### 生成式預訓練轉換器的微調 (Fine-tuning) 是什麼意思? 微調是指在一個已經預訓練好的 GPT 模型上,使用特定任務的數據集進行額外訓練。這樣可以使模型更好地適應特定任務,提高性能。例如,可以使用客服數據集微調 GPT 模型,使其更擅長回答客戶問題。 ### 如何評估生成式預訓練轉換器生成的文本質量? 評估生成文本質量的方法有很多種。常用的指標包括困惑度 (Perplexity)、BLEU 分數、ROUGE 分數等。此外,也可以通過人工評估來判斷生成文本的流暢度、連貫性和準確性。選擇合適的評估指標取決於具體的應用場景。 --- 來源:https://aiterms.tw/terms/generative-pre-trained-transformer 快查頁:https://aiterms.tw/terms/generative-pre-trained-transformer 深度解說:https://aiterms.tw/learning/what-is-generative-pre-trained-transformer --- # 異常偵測(Anomaly Detection) 異常偵測是指識別數據集中與預期模式顯著不同的數據點,這些異常點可能指示錯誤、欺詐或其他不尋常的事件。 ## 完整說明 異常偵測是一種識別數據集中與預期行為或模式顯著不同的數據點的技術。這些異常點,也稱為異常值或離群值,可能指示錯誤、欺詐、系統故障、安全漏洞或其他不尋常的事件。異常偵測在許多領域都有應用,例如金融、醫療保健、製造業和網路安全。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/anomaly-detection 快查頁:https://aiterms.tw/terms/anomaly-detection 深度解說:https://aiterms.tw/learning/what-is-anomaly-detection --- # 病理學AI(Pathology AI) 病理學AI利用人工智慧分析組織切片影像,輔助病理醫生診斷癌症、感染等疾病,提升診斷效率和客觀性。 ## 完整說明 病理學AI是指應用人工智慧技術於病理學領域,主要用於分析組織切片影像,以輔助病理醫生進行疾病診斷、病情評估和預後預測。其目標是提高診斷效率和客觀性,減少人為誤差,並最終改善患者的治療效果。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/pathology-ai 快查頁:https://aiterms.tw/terms/pathology-ai 深度解說:https://aiterms.tw/learning/what-is-pathology-ai --- # 監督式學習(Supervised Learning) 監督式學習是一種 AI 方法,透過提供帶有正確標籤的輸入資料,訓練模型學習預測新資料的標籤 ## 完整說明 監督式學習是一種機器學習方法,用於建立一個模型,該模型能夠根據帶有標籤的訓練資料進行預測。模型透過學習輸入特徵與輸出標籤之間的關係,進而對新的、未標籤的資料進行分類或迴歸預測。在 iPAS 初級考試中,監督式學習是重要的概念,需要理解其原理、常見演算法(如線性迴歸、邏輯迴歸、支持向量機)以及評估指標。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - 各類學習範式的定義與比較(佔 45%) - 適用場景判斷(佔 35%) - 演算法優缺點分析(佔 20%) ## 常見問題 ### 監督式學習中,如果訓練資料的標籤錯誤率很高,會對模型造成什麼影響? 高錯誤率的標籤會嚴重影響模型的準確性。模型會學習到錯誤的輸入-輸出關係,導致在新的、未見過的資料上表現不佳。這種情況需要進行資料清理,修正錯誤標籤,或者使用對雜訊更具魯棒性的演算法。 ### 在監督式學習中,什麼是過擬合(Overfitting),如何避免? 過擬合是指模型在訓練資料上表現很好,但在未見過的資料上表現很差。這是因為模型過於複雜,學習了訓練資料中的雜訊。避免過擬合的方法包括:增加訓練資料量、使用正則化技術(如L1或L2正則化)、降低模型複雜度、使用交叉驗證等。 ### 監督式學習中,如何處理類別不平衡問題(Imbalanced Classes)? 類別不平衡是指在分類問題中,不同類別的樣本數量差異很大。例如,詐欺檢測中,詐欺交易的數量通常遠少於正常交易。處理類別不平衡的方法包括:重採樣(過採樣少數類或欠採樣多數類)、使用類別權重、使用集成方法(如Bagging或Boosting)。 --- 來源:https://aiterms.tw/terms/supervised-learning 快查頁:https://aiterms.tw/terms/supervised-learning 深度解說:https://aiterms.tw/learning/what-is-supervised-learning --- # 目標函數(Objective Function) 目標函數是機器學習模型訓練中用於評估模型表現的函數,其數值代表模型預測與實際值的差距,優化目標是最小化或最大化此函數。 ## 完整說明 目標函數(Objective Function)是機器學習模型訓練的核心組成部分,它定義了模型需要優化的目標。目標函數衡量了模型預測結果與真實值之間的差異,並將這種差異量化為一個數值。模型訓練的過程就是不斷調整模型參數,以最小化(或最大化)這個目標函數的過程。目標函數的選擇直接影響模型的性能和泛化能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/objective-function 快查頁:https://aiterms.tw/terms/objective-function 深度解說:https://aiterms.tw/learning/what-is-objective-function --- # 直接偏好優化(Direct Preference Optimization) 直接偏好優化(DPO)是一種直接利用人類偏好資料,優化語言模型,無需訓練獎勵模型的強化學習替代方案。 ## 完整說明 直接偏好優化(Direct Preference Optimization, DPO)是一種簡化版的強化學習方法,用於訓練大型語言模型。它直接利用人類對不同模型輸出的偏好資料,優化語言模型,避免了傳統RLHF中訓練獎勵模型的步驟,從而降低了複雜性和訓練成本。常見應用包括提升對話系統、文本生成和程式碼生成的質量。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/direct-preference-optimization 快查頁:https://aiterms.tw/terms/direct-preference-optimization 深度解說:https://aiterms.tw/learning/what-is-direct-preference-optimization --- # 相關係數(Correlation) 相關係數衡量兩個變數之間線性關係的強度和方向,範圍從 -1 到 1。1 表示完全正相關,-1 表示完全負相關,0 表示沒有線性關係。 ## 完整說明 相關係數是一種統計量,用於衡量兩個隨機變數之間線性關係的強度和方向。它是一個標準化的指標,範圍從 -1 到 1。正相關表示兩個變數傾向於一起增加或減少,負相關表示一個變數增加時,另一個變數傾向於減少。相關係數為零表示兩個變數之間沒有線性關係。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/correlation 快查頁:https://aiterms.tw/terms/correlation 深度解說:https://aiterms.tw/learning/what-is-correlation --- # 知識庫(Knowledge Base) 知識庫是儲存結構化和非結構化知識的中央儲存庫,用於支援決策、自動化任務和提供資訊。 ## 完整說明 知識庫是一個組織化的資訊集合,旨在促進知識的獲取、共享和重用。它包含事實、規則、概念和關係,可以採用多種形式,例如文件、資料庫、圖形和專家系統。知識庫的目標是將隱性知識轉化為顯性知識,並提供一個易於訪問和維護的知識儲存庫。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/knowledge-base 快查頁:https://aiterms.tw/terms/knowledge-base 深度解說:https://aiterms.tw/learning/what-is-knowledge-base --- # 知識蒸餾(Knowledge Distillation) 知識蒸餾是一種模型壓縮技術,透過讓小模型模仿大模型的輸出,使其在保有精準度的同時,大幅縮減模型體積 ## 完整說明 知識蒸餾是一種模型壓縮技術,用於將大型、複雜的「教師模型」的知識轉移到一個小型、輕量化的「學生模型」。學生模型透過模仿教師模型的輸出(例如,類別機率),學習到更泛化的知識,從而提升其效能,使其在資源受限的環境中也能有效部署。此方法常用於加速推論速度,並降低模型大小。 ## 常見問題 ### 知識蒸餾一定要用深度學習模型嗎? 雖然知識蒸餾最初是在深度學習領域提出的,但其核心思想也可以應用於其他機器學習模型。 只要老師模型能夠提供有用的知識(例如機率分佈或決策邊界),學生模型就可以學習這些知識,並提高自身的效能。 ### 知識蒸餾中的「溫度」(Temperature)參數如何影響訓練? 溫度參數主要用於平滑老師模型的機率分佈。 溫度越高,機率分佈越平滑,學生模型越關注不太可能的類別,從而學到更多泛化能力。 溫度過低則會使學生模型過於關注老師模型最自信的預測,忽略了其他有用的資訊。 ### 知識蒸餾可以提升模型的防禦性嗎? 在對抗性攻擊的背景下,知識蒸餾有潛力提升模型的防禦性。 學生模型可以通過學習老師模型更穩健的特徵表示,來提高對抗性樣本的抵抗能力。 然而,這並非知識蒸餾的主要目標,需要結合其他防禦技術才能達到更好的效果。 --- 來源:https://aiterms.tw/terms/knowledge-distillation 快查頁:https://aiterms.tw/terms/knowledge-distillation 深度解說:https://aiterms.tw/learning/what-is-knowledge-distillation --- # 矩陣分解(Matrix Factorization) 矩陣分解是一種將矩陣分解為兩個或多個矩陣乘積的技術,常應用於推薦系統,以預測用戶對未評分項目的偏好。 ## 完整說明 矩陣分解是一種將一個矩陣分解為兩個或多個矩陣乘積的技術。在推薦系統中,矩陣分解通常用於分解用戶-物品評分矩陣,以學習用戶和物品的隱藏特徵,並預測用戶對未評分項目的偏好。常見的矩陣分解方法包括 SVD、NMF 和 ALS。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/matrix-factorization 快查頁:https://aiterms.tw/terms/matrix-factorization 深度解說:https://aiterms.tw/learning/what-is-matrix-factorization --- # 矩陣分解推薦(Matrix Factorization for Recommendations) 矩陣分解推薦是一種推薦系統技術,它將用戶-項目互動矩陣分解為兩個低維矩陣,分別代表用戶和項目的隱含特徵,用於預測用戶對未互動項目的偏好。 ## 完整說明 矩陣分解推薦是一種協同過濾技術,它將用戶-項目互動矩陣(例如,用戶對項目的評分)分解為兩個低維矩陣:一個代表用戶的隱含特徵,另一個代表項目的隱含特徵。通過這兩個矩陣的乘積,可以預測用戶對未互動項目的偏好。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/matrix-factorization-for-recommendations 快查頁:https://aiterms.tw/terms/matrix-factorization-for-recommendations 深度解說:https://aiterms.tw/learning/what-is-matrix-factorization-for-recommendations --- # 神經架構搜尋(Neural Architecture Search) 神經架構搜尋(NAS)是一種自動化設計神經網路架構的技術,旨在尋找在特定任務上表現最佳的模型結構,無需人工手動設計。 ## 完整說明 神經架構搜尋 (NAS) 是一種自動化機器學習 (AutoML) 的子領域,專注於自動設計神經網路架構。傳統上,神經網路架構的設計需要大量的專業知識和手動調整。NAS 旨在通過演算法自動探索和評估不同的網路結構,從而找到在特定任務上表現最佳的模型,減少對人工設計的依賴。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/neural-architecture-search 快查頁:https://aiterms.tw/terms/neural-architecture-search 深度解說:https://aiterms.tw/learning/what-is-neural-architecture-search --- # 神經符號人工智慧(Neuro-symbolic AI) 神經符號人工智慧結合了神經網路的學習能力和符號AI的推理能力,旨在克服各自的局限性,實現更強大、更可靠的AI系統。 ## 完整說明 神經符號人工智慧是一種AI研究範式,它試圖將神經網路的學習能力與符號AI的推理能力結合起來。神經網路擅長於從數據中學習模式,但缺乏可解釋性和推理能力。符號AI則擅長於推理和知識表示,但需要人工設計規則和知識庫。神經符號AI旨在克服這兩種方法的局限性,實現更強大、更可靠的AI系統。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/neuro-symbolic-ai 快查頁:https://aiterms.tw/terms/neuro-symbolic-ai 深度解說:https://aiterms.tw/learning/what-is-neuro-symbolic-ai --- # 神經輻射場景(Neural Radiance Fields) 神經輻射場景(NeRF)是一種使用神經網路表示3D場景的新穎方法,它通過學習場景的體積密度和顏色來實現逼真的渲染。 ## 完整說明 神經輻射場景(NeRF)是一種隱式表示3D場景的新穎方法,它使用深度神經網路來學習場景的體積密度和顏色。NeRF通過查詢網路來獲取空間中任何一點的密度和顏色,然後使用體積渲染技術將這些信息合成為逼真的2D圖像。它避免了傳統3D表示方法的離散化問題,並能生成高質量、視角一致的渲染結果。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/neural-radiance-fields 快查頁:https://aiterms.tw/terms/neural-radiance-fields 深度解說:https://aiterms.tw/learning/what-is-neural-radiance-fields --- # 視覺問答(Visual Question Answering) 視覺問答(VQA)是一種人工智慧任務,要求模型根據給定的圖像回答自然語言問題,結合了電腦視覺和自然語言處理。 ## 完整說明 視覺問答(VQA)是一種人工智慧任務,旨在讓機器能夠理解圖像的內容,並根據自然語言提出的問題給出答案。VQA 結合了電腦視覺和自然語言處理技術,要求模型能夠解析圖像中的物件、關係和場景,並理解問題的語義,最終生成正確的答案。常見應用包括圖像檢索、輔助視覺障礙人士和教育。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/visual-question-answering 快查頁:https://aiterms.tw/terms/visual-question-answering 深度解說:https://aiterms.tw/learning/what-is-visual-question-answering --- # 視覺語言模型(Vision-Language Model) 視覺語言模型結合電腦視覺與自然語言處理,使機器能理解並生成圖像與文字之間的關聯,應用廣泛,例如圖像描述生成和視覺問答。 ## 完整說明 視覺語言模型是一種結合電腦視覺與自然語言處理技術的人工智慧模型。它能夠理解並生成圖像和文字之間的關聯,用於圖像描述生成、視覺問答、跨模態檢索等任務。常見應用包括圖像字幕生成、根據文字描述生成圖像、以及在圖像中尋找特定物體。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/vision-language-model 快查頁:https://aiterms.tw/terms/vision-language-model 深度解說:https://aiterms.tw/learning/what-is-vision-language-model --- # 視覺變換器(Vision Transformer) Vision Transformer (ViT) 是一種將 Transformer 架構應用於圖像識別的深度學習模型,它將圖像分割成小塊,並將其視為序列進行處理。 ## 完整說明 Vision Transformer (ViT) 是一種創新的圖像識別模型,它直接將 Transformer 架構應用於圖像。ViT 將輸入圖像分割成一系列圖像塊 (patches),並將這些圖像塊視為序列,然後使用 Transformer 編碼器進行處理,從而實現圖像分類。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/vision-transformer 快查頁:https://aiterms.tw/terms/vision-transformer 深度解說:https://aiterms.tw/learning/what-is-vision-transformer --- # 移動網路(MobileNet) MobileNet是一種針對移動和嵌入式設備設計的輕量級深度神經網路架構,旨在實現高效的資源利用和快速的推論速度。 ## 完整說明 MobileNet是一系列高效的卷積神經網路,專為移動和嵌入式設備設計。它們使用深度可分離卷積來顯著減少計算量和模型大小,同時保持可接受的準確性,使其非常適合資源受限的環境。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mobilenet 快查頁:https://aiterms.tw/terms/mobilenet 深度解說:https://aiterms.tw/learning/what-is-mobilenet --- # 稀疏檢索(Sparse Retrieval) 稀疏檢索是一種資訊檢索方法,它使用稀疏向量來表示查詢和文檔,向量中的非零元素通常表示詞彙的存在或重要性。 ## 完整說明 稀疏檢索是一種資訊檢索方法,其核心思想是將查詢和文檔表示為高維稀疏向量。這些向量中的大多數元素為零,只有少數元素表示詞彙的存在或重要性。這種表示方法簡化了計算,並允許快速檢索相關文檔,尤其是在處理大規模文本數據時。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sparse-retrieval 快查頁:https://aiterms.tw/terms/sparse-retrieval 深度解說:https://aiterms.tw/learning/what-is-sparse-retrieval --- # 稀疏注意力機制(Sparse Attention) 稀疏注意力機制是一種減少注意力機制計算複雜度的技術,透過只關注輸入序列中的部分元素,降低運算量,提升模型效率。 ## 完整說明 稀疏注意力機制是一種注意力機制的變體,旨在降低計算複雜度。傳統的注意力機制需要計算輸入序列中所有元素之間的關聯性,而稀疏注意力機制則只關注部分元素,從而減少運算量,提升模型效率。常見應用包括長文本處理、圖像處理和語音辨識。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sparse-attention 快查頁:https://aiterms.tw/terms/sparse-attention 深度解說:https://aiterms.tw/learning/what-is-sparse-attention --- # 程式化標註(Programmatic Labeling) 程式化標註是一種利用程式碼(例如,規則、啟發式方法或外部知識庫)自動生成訓練資料標籤的技術,以加速模型開發。 ## 完整說明 程式化標註是一種通過編寫程式碼來自動生成訓練資料標籤的技術。它使用規則、啟發式方法、外部知識庫或其他程式化方法來標記資料,而不是手動標註。這種方法可以顯著減少標註資料所需的時間和成本,並允許快速迭代模型開發。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/programmatic-labeling 快查頁:https://aiterms.tw/terms/programmatic-labeling 深度解說:https://aiterms.tw/learning/what-is-programmatic-labeling --- # 程式碼副駕駛(Copilot) Copilot 是一個 AI 程式碼助手,透過分析程式碼上下文,提供程式碼建議、自動完成和程式碼生成,提升開發效率。 ## 完整說明 Copilot 是一個由 GitHub 和 OpenAI 合作開發的 AI 程式碼助手,旨在幫助開發者更高效地編寫程式碼。它基於 OpenAI Codex 模型,能夠分析程式碼上下文,提供程式碼建議、自動完成、程式碼生成和程式碼解釋等功能。Copilot 旨在成為開發者的「副駕駛」,協助完成編碼任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/copilot 快查頁:https://aiterms.tw/terms/copilot 深度解說:https://aiterms.tw/learning/what-is-copilot --- # 程式碼生成(Code Generation) 程式碼生成是指利用人工智慧模型,自動產生程式碼片段或完整程式的技術,旨在提高開發效率並降低編碼錯誤。 ## 完整說明 程式碼生成是人工智慧領域的一項重要技術,它利用機器學習模型,尤其是大型語言模型,自動產生程式碼片段或完整的程式。程式碼生成旨在提高軟體開發的效率,降低編碼錯誤,並使非專業開發者也能夠參與程式設計。該技術涵蓋多種程式語言和應用場景,從簡單的函數生成到複雜的應用程式架構設計。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/code-generation 快查頁:https://aiterms.tw/terms/code-generation 深度解說:https://aiterms.tw/learning/what-is-code-generation --- # 稠密檢索模型(Dense Retrieval) 稠密檢索模型使用神經網路將查詢和文檔嵌入到一個低維向量空間中,通過計算向量相似度來檢索相關文檔,克服了傳統方法的詞彙不匹配問題。 ## 完整說明 稠密檢索模型 (Dense Retrieval) 是一種資訊檢索方法,它使用神經網路將查詢和文檔嵌入到一個共享的低維向量空間中。通過計算查詢向量和文檔向量之間的相似度(例如,餘弦相似度),來檢索與查詢相關的文檔。稠密檢索模型旨在克服傳統基於關鍵字的檢索方法中存在的詞彙不匹配問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/dense-retrieval 快查頁:https://aiterms.tw/terms/dense-retrieval 深度解說:https://aiterms.tw/learning/what-is-dense-retrieval --- # 穩健性(Robustness) 穩健性是指模型在面對輸入數據的微小擾動、對抗性攻擊或分布偏移時,仍能維持其性能表現的能力。 ## 完整說明 在機器學習中,穩健性描述的是模型在面對未預期或異常輸入時,維持其性能和可靠性的能力。一個穩健的模型應該能夠抵抗數據中的雜訊、對抗性攻擊以及訓練數據與實際應用數據之間的分布差異,並產生一致且準確的預測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/robustness 快查頁:https://aiterms.tw/terms/robustness 深度解說:https://aiterms.tw/learning/what-is-robustness --- # 穩定擴散(Stable Diffusion) Stable Diffusion 是一種潛在擴散模型,用於根據文字描述生成高質量圖像,透過迭代去噪過程,從隨機噪聲中產生逼真圖像。 ## 完整說明 Stable Diffusion 是一種基於潛在擴散模型 (Latent Diffusion Model, LDM) 的文本到圖像生成模型。它能夠根據文字描述生成高質量的圖像。Stable Diffusion 的核心思想是通過迭代去噪過程,從隨機噪聲中逐漸產生逼真的圖像。常見應用包括藝術創作、設計和圖像編輯。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/stable-diffusion 快查頁:https://aiterms.tw/terms/stable-diffusion 深度解說:https://aiterms.tw/learning/what-is-stable-diffusion --- # 競價型訓練(Spot Instance Training) 競價型訓練利用閒置的雲端運算資源,以大幅降低模型訓練成本,但可能因資源回收而中斷。 ## 完整說明 競價型訓練是一種利用雲端供應商提供的閒置運算資源進行模型訓練的方法。這些資源以遠低於按需價格的價格提供,但雲端供應商保留在需要時回收這些資源的權利。因此,競價型訓練適合可以容忍中斷的工作負載。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/spot-instance-training 快查頁:https://aiterms.tw/terms/spot-instance-training 深度解說:https://aiterms.tw/learning/what-is-spot-instance-training --- # 符記(Token) 符記是大型語言模型處理文字時,不可分割的最小單位,它可以是一個字、詞,或者更小的子詞 ## 完整說明 符記(Token)是自然語言處理中的基本單位,用於將文本分割成更小的、可處理的片段。這些片段可以是單詞、子詞或字符,具體取決於所使用的分詞方法。符記化是許多 NLP 任務(如文本分類、機器翻譯和語言模型)的預處理步驟,將原始文本轉換為機器可以理解和處理的格式。 ## 常見問題 ### 符記的數量如何影響 LLM 的效能? 符記數量直接影響 LLM 的計算複雜度和記憶體需求。過多的符記可能導致效能下降,甚至超出模型的處理能力。因此,在實際應用中,需要根據模型的限制和任務的需求,合理控制輸入的符記數量。 ### 不同的符記化方法會產生什麼影響? 不同的符記化方法會影響模型的詞彙表和符記序列。例如,Byte Pair Encoding (BPE) 傾向於將罕見詞分割成子詞,而 WordPiece 則更傾向於保留完整的單詞。選擇合適的符記化方法可以提高模型的準確率和效率。 ### 如何評估一個符記化演算法的優劣? 評估符記化演算法的優劣可以從多個方面入手,包括符記的平均長度、詞彙表的大小、對罕見詞的處理能力以及對不同語言的適應性。此外,還可以通過實驗比較不同符記化方法在具體任務上的表現。 --- 來源:https://aiterms.tw/terms/token 快查頁:https://aiterms.tw/terms/token 深度解說:https://aiterms.tw/learning/what-is-token --- # 策略梯度(Policy Gradient) 策略梯度是一種直接優化策略的強化學習方法,它通過計算策略梯度來更新策略參數,以最大化預期累積獎勵。 ## 完整說明 策略梯度方法是強化學習中的一類算法,它直接學習策略,而無需顯式地學習價值函數。策略梯度算法通過計算策略梯度來更新策略參數,策略梯度指示了策略參數應該如何調整才能最大化預期累積獎勵。與基於價值函數的方法相比,策略梯度方法可以直接學習隨機策略,並且在高維度動作空間中表現良好。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/policy-gradient 快查頁:https://aiterms.tw/terms/policy-gradient 深度解說:https://aiterms.tw/learning/what-is-policy-gradient --- # 精確率(Precision) 精確率是模型預測為正例中真正為正例的比例,反映預測結果的準確度,與召回率形成取捨 ## 完整說明 精確率(Precision)是一種用於評估分類模型效能的指標,用於衡量模型預測為正例的樣本中,真正為正例的比例。計算公式為:真正例 / (真正例 + 假正例)。在 iPAS 初級考試中,精確率是評估模型效能的重要指標之一,需要與其他指標(如召回率、F1 分數)一起使用,以全面了解模型的表現。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 精確率和準確率有什麼不同? 準確率 (Accuracy) 衡量的是模型整體預測的正確率,包括正例和負例,公式為 (TP+TN)/(TP+TN+FP+FN)。而精確率只關注模型預測為正例的樣本中,有多少是真正正例,公式為 TP/(TP+FP)。準確率適用於正負樣本比例均衡的情況,而精確率更適用於樣本不均衡,且關注正例預測準確性的情況。 ### 精確率為 0 代表什麼意思? 精確率為 0 代表模型所有預測為正例的樣本,實際上都是假正例。也就是說,模型完全沒有能力正確地預測正例。在實際應用中,這通常意味著模型存在嚴重的問題,例如訓練資料不足、特徵選擇不當或演算法選擇錯誤,需要重新檢視和調整模型。 ### 如何提升模型的精確率? 提升精確率可以透過多種方式,例如:增加訓練資料量、優化特徵工程、調整模型參數、使用更適合的演算法,以及調整分類閾值等。此外,還可以嘗試使用集成學習方法,例如 Bagging 或 Boosting,將多個模型的預測結果進行整合,以提高模型的整體效能和精確率。 --- 來源:https://aiterms.tw/terms/precision 快查頁:https://aiterms.tw/terms/precision 深度解說:https://aiterms.tw/learning/what-is-precision --- # 系統提示詞(System Prompt) 系統提示詞是用於引導大型語言模型行為的初始指令,影響模型的回應風格、知識範圍和任務執行方式。 ## 完整說明 系統提示詞是一種特殊的提示詞,用於在對話開始時設定大型語言模型的行為模式。它能夠影響模型的回應風格、知識範圍、任務執行方式,以及其他重要參數。常見應用包括設定模型的角色、限制其知識範圍,或指示其遵循特定格式。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/system-prompt 快查頁:https://aiterms.tw/terms/system-prompt 深度解說:https://aiterms.tw/learning/what-is-system-prompt --- # 紅隊演練(Red Teaming) 紅隊演練是一種模擬攻擊的測試方法,通過模擬真實攻擊者的行為,評估AI系統的安全性,找出潛在的漏洞和弱點。 ## 完整說明 紅隊演練是一種模擬真實攻擊的測試方法,用於評估AI系統的安全性。紅隊成員扮演攻擊者的角色,嘗試利用各種技術手段來攻擊AI系統,找出潛在的漏洞和弱點。紅隊演練能夠幫助開發者更好地了解AI系統的安全性,並採取相應的措施來提高其安全性。常見應用包括滲透測試、漏洞掃描和社會工程。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/red-teaming 快查頁:https://aiterms.tw/terms/red-teaming 深度解說:https://aiterms.tw/learning/what-is-red-teaming --- # 結構化資料(Structured Data) 結構化資料是指具有預定義格式和組織方式的資料,易於儲存、查詢和分析,例如關聯式資料庫中的表格。 ## 完整說明 結構化資料是指具有預定義格式和組織方式的資料,通常儲存在關聯式資料庫中。其特點是資料欄位明確、資料類型一致,方便進行儲存、查詢、分析和管理。結構化資料的範例包括資料庫表格、Excel試算表和CSV檔案。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/structured-data 快查頁:https://aiterms.tw/terms/structured-data 深度解說:https://aiterms.tw/learning/what-is-structured-data --- # 綱要演進(Schema Evolution) 綱要演進是指資料庫或資料倉儲的綱要隨著時間推移而發生的變更,以及管理這些變更的過程,以確保資料的相容性和可用性。 ## 完整說明 綱要演進是指資料庫或資料倉儲的綱要隨著時間推移而發生的變更。這些變更可能包括新增、刪除或修改表格、欄位、資料類型或約束。管理綱要演進對於確保資料的相容性、可用性和完整性至關重要,尤其是在快速變化的應用環境中。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/schema-evolution 快查頁:https://aiterms.tw/terms/schema-evolution 深度解說:https://aiterms.tw/learning/what-is-schema-evolution --- # 網格搜尋(Grid Search) 網格搜尋是一種超參數調校方法,它窮舉超參數空間中所有可能的組合,並評估每個組合的模型效能。 ## 完整說明 網格搜尋是一種常用的超參數調校方法,它通過窮舉超參數空間中所有可能的組合,並使用交叉驗證等技術評估每個組合的模型效能,最終選擇最佳的超參數配置。這種方法簡單直觀,但計算成本較高。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/grid-search 快查頁:https://aiterms.tw/terms/grid-search 深度解說:https://aiterms.tw/learning/what-is-grid-search --- # 網路釣魚偵測(Phishing Detection) 網路釣魚偵測是利用AI技術識別並阻止網路釣魚攻擊的過程,旨在保護用戶免受詐騙、身份盜竊和財務損失。 ## 完整說明 網路釣魚偵測利用自然語言處理、機器學習等AI技術,分析電子郵件、網站和訊息的內容、結構和行為,識別網路釣魚攻擊的特徵和模式,從而預防用戶上當受騙,洩露個人資訊或財務資訊。有效的網路釣魚偵測是資訊安全的重要組成部分。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/phishing-detection 快查頁:https://aiterms.tw/terms/phishing-detection 深度解說:https://aiterms.tw/learning/what-is-phishing-detection --- # 線上學習(Online Learning) 線上學習是一種機器學習方法,模型在接收到每個新資料點後立即更新,無需儲存所有資料或進行批次訓練,適用於資料流場景。 ## 完整說明 線上學習是一種機器學習範例,其中模型在接收到每個新資料點後立即更新,而無需儲存所有資料或進行批次訓練。這與批次學習形成對比,在批次學習中,模型在整個訓練資料集上進行訓練。線上學習適用於資料流場景,例如即時預測或動態環境。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/online-learning 快查頁:https://aiterms.tw/terms/online-learning 深度解說:https://aiterms.tw/learning/what-is-online-learning --- # 線性迴歸法(Linear Regression) 線性迴歸法是一種統計方法,用於建立自變數和應變數之間的線性關係模型。目標是找到最佳擬合線,以預測應變數的值。 ## 完整說明 線性迴歸法是一種監督式學習演算法,用於建立一個模型,該模型描述自變數(或預測變數)和應變數(或目標變數)之間的線性關係。其目標是找到一條最佳擬合線(或超平面),該線可以最小化預測值和實際值之間的差異。線性迴歸廣泛應用於預測、趨勢分析和關係建模。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/linear-regression 快查頁:https://aiterms.tw/terms/linear-regression 深度解說:https://aiterms.tw/learning/what-is-linear-regression --- # 編碼器(Encoder) 編碼器將輸入資料壓縮為固定長度的向量表示,提取語義特徵以供解碼器或下游任務使用 ## 完整說明 編碼器(Encoder)是一種神經網路架構中的組件,用於將輸入資料轉換為一種壓縮的、具有代表性的向量表示,通常稱為「隱藏狀態」或「嵌入」。編碼器旨在捕捉輸入資料的重要特徵,並將其編碼成一個固定長度的向量,供後續的解碼器或其他模組使用。在 iPAS 中級考試中,編碼器是理解自編碼器、變分自編碼器等深度學習模型的關鍵。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 編碼器和詞嵌入 (Word Embedding) 有什麼不同? 編碼器是一種更廣泛的概念,用於將任何形式的資料轉換成特徵向量。詞嵌入則專注於將詞語轉換成向量,捕捉詞語間的語義關係。詞嵌入可視為編碼器的一種特例,編碼器則能處理圖像、聲音等多種資料類型。 ### 什麼時候應該使用編碼器? 當需要從複雜的輸入資料中提取關鍵特徵,並將其轉換為更易於處理的表示形式時,應使用編碼器。常見情境包括降維、特徵提取、以及作為自編碼器或序列到序列模型的一部分。 ### 初學者學習編碼器最常見的誤解是什麼? 初學者常誤以為編碼器僅是資料壓縮工具。實際上,編碼器的主要目標是提取資料中最具代表性的特徵,並將其轉換為機器學習模型更容易理解和處理的形式,而不僅僅是減少資料量。 --- 來源:https://aiterms.tw/terms/encoder 快查頁:https://aiterms.tw/terms/encoder 深度解說:https://aiterms.tw/learning/what-is-encoder --- # 羊駝索引(LlamaIndex) LlamaIndex是一個資料框架,用於連接大型語言模型(LLMs)與您的私有或特定領域的資料,簡化建立基於LLM的應用程式。 ## 完整說明 LlamaIndex是一個專為大型語言模型(LLMs)設計的資料框架,旨在簡化將LLMs連接到各種資料來源的過程。它提供工具來索引、結構化和存取您的資料,使您能夠輕鬆地建立基於LLM的應用程式,例如問答系統、聊天機器人等,而無需擔心底層資料的複雜性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/llamaindex 快查頁:https://aiterms.tw/terms/llamaindex 深度解說:https://aiterms.tw/learning/what-is-llamaindex --- # 羊駝語言模型(LLaMA) LLaMA (Large Language Model Meta AI) 是 Meta 開發的一系列開放且高效的大型語言模型,旨在推動 AI 研究。 ## 完整說明 LLaMA (Large Language Model Meta AI) 是 Meta AI 開發的一系列開放且高效的大型語言模型。其目標是讓研究人員更容易訪問和研究大型語言模型,從而推動 AI 研究的進展。 LLaMA 模型有多種尺寸,旨在提供性能和效率之間的平衡。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/llama 快查頁:https://aiterms.tw/terms/llama 深度解說:https://aiterms.tw/learning/what-is-llama --- # 聊天機器人(Chatbot) 聊天機器人是一種能模擬人類對話的電腦程式,透過文字或語音與使用者互動,提供資訊、協助解決問題或執行特定任務。 ## 完整說明 聊天機器人是一種基於人工智慧和自然語言處理技術的電腦程式,旨在模擬人類對話。它們可以透過文字、語音或其他形式與使用者互動,提供資訊、協助解決問題、執行特定任務,或僅僅是提供娛樂。聊天機器人廣泛應用於客戶服務、行銷、教育和娛樂等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/chatbot 快查頁:https://aiterms.tw/terms/chatbot 深度解說:https://aiterms.tw/learning/what-is-chatbot --- # 聯邦學習(Federated Learning) 聯邦學習是一種多方協作的機器學習方法,各方在本地訓練模型,僅共享模型更新,保護原始資料 ## 完整說明 聯邦學習是一種分散式的機器學習方法,用於在多個分散式裝置或伺服器上訓練模型,而無需直接共享原始數據。它能夠保護用戶隱私,同時利用大量分散數據進行模型訓練,提升模型泛化能力。在 iPAS 考試中,聯邦學習是機器學習領域的重要概念,考察其原理、應用場景以及隱私保護機制。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 4%,屬於未分類考範圍。 ## 常見問題 ### 聯邦學習和分散式學習有什麼不同? 聯邦學習與分散式學習的主要區別在於對數據隱私的關注程度。聯邦學習強調數據保留在本地,只分享模型更新,以保護數據隱私。分散式學習則可能涉及數據集中儲存或分享中間結果,對隱私的考量相對較少。因此,聯邦學習更適用於數據敏感的場景,如醫療或金融。 ### 什麼時候應該使用聯邦學習? 當數據分散在多個節點且無法集中收集,同時數據隱私敏感,不允許直接共享,但又需要利用多方數據共同訓練模型時,就應該考慮使用聯邦學習。例如,多家銀行合作建立信用評估模型,或多個醫院合作研究疾病預測模型。 ### 初學者學習聯邦學習最常見的誤解是什麼? 初學者常誤以為聯邦學習能完全解決數據隱私問題。雖然聯邦學習降低了數據洩露風險,但模型更新本身仍可能洩露部分資訊。因此,在使用聯邦學習的同時,還需輔以差分隱私等額外安全措施,才能更有效地保護數據隱私。 --- 來源:https://aiterms.tw/terms/federated-learning 快查頁:https://aiterms.tw/terms/federated-learning 深度解說:https://aiterms.tw/learning/what-is-federated-learning --- # 聲音複製(Voice Cloning) 聲音複製是指使用人工智慧技術,基於少量語音樣本,生成與目標人物聲音高度相似的合成語音。 ## 完整說明 聲音複製是一種人工智慧技術,它允許基於少量的目標人物語音樣本,創建一個能夠模仿該人物聲音的合成語音模型。這個模型可以生成新的語音內容,聽起來就像是目標人物在說話,即使這些內容是目標人物從未實際說過的。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/voice-cloning 快查頁:https://aiterms.tw/terms/voice-cloning 深度解說:https://aiterms.tw/learning/what-is-voice-cloning --- # 膠囊網路(Capsule Network) 膠囊網路是一種神經網路架構,旨在解決卷積神經網路在處理物件方向和空間關係上的不足,透過膠囊和路由機制,更有效地捕捉物件的層次結構。 ## 完整說明 膠囊網路(Capsule Network)是一種新型的神經網路架構,它試圖解決傳統卷積神經網路(CNN)在處理物件方向和空間關係上的不足。與CNN不同,膠囊網路使用稱為「膠囊」的向量來表示物件的屬性,並透過「路由」機制來建立物件之間的層次關係,從而更有效地捕捉物件的整體結構。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/capsule-network 快查頁:https://aiterms.tw/terms/capsule-network 深度解說:https://aiterms.tw/learning/what-is-capsule-network --- # 臨床自然語言處理(Clinical NLP) 臨床自然語言處理 (Clinical NLP) 是一種利用自然語言處理技術,從醫療文本中提取、分析和理解資訊的AI應用,旨在改善醫療照護品質和效率。 ## 完整說明 臨床自然語言處理 (Clinical NLP) 結合了自然語言處理 (NLP) 和醫療領域的知識,旨在從非結構化的醫療文本(如電子病歷、臨床報告、醫學文獻等)中自動提取、分析和理解有意義的資訊。這些資訊可用於改善臨床決策、研究、藥物開發和醫療管理。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/clinical-nlp 快查頁:https://aiterms.tw/terms/clinical-nlp 深度解說:https://aiterms.tw/learning/what-is-clinical-nlp --- # 自主系統(Autonomous System) 自主系統是指能在沒有外部干預下,感知環境、做出決策並執行動作的系統,具備一定程度的獨立性和適應性。 ## 完整說明 自主系統是一種複雜的系統,能夠在沒有持續的人工干預下,感知其環境,做出決策,並執行動作以實現特定目標。它具備一定的獨立性和適應性,能夠應對變化和不確定性,並在一定程度上自我學習和改進。自主系統的設計涉及多個學科,包括人工智慧、控制理論、機器人學等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/autonomous-system 快查頁:https://aiterms.tw/terms/autonomous-system 深度解說:https://aiterms.tw/learning/what-is-autonomous-system --- # 自助聚合(Bagging) Bagging (Bootstrap Aggregating) 是一種集成學習技術,透過對原始資料集進行多次有放回的抽樣,訓練多個模型,並將它們的預測結果進行平均或投票。 ## 完整說明 Bagging (Bootstrap Aggregating) 是一種集成學習方法,旨在提高機器學習模型的穩定性和準確性。它通過對原始資料集進行多次有放回的抽樣(Bootstrap),為每個樣本建立一個獨立的訓練集。然後,在每個訓練集上訓練一個模型,最後將所有模型的預測結果進行平均(對於回歸問題)或投票(對於分類問題)。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bagging 快查頁:https://aiterms.tw/terms/bagging 深度解說:https://aiterms.tw/learning/what-is-bagging --- # 自動擴展(Auto Scaling) 自動擴展根據系統負載自動調整計算資源,動態增加或減少伺服器數量,確保應用程式效能,同時優化成本。 ## 完整說明 自動擴展是一種雲端運算技術,它能夠根據應用程式的實際需求,自動調整計算資源的數量。當應用程式的負載增加時,自動擴展會自動增加伺服器的數量,以應對增加的流量。當應用程式的負載減少時,自動擴展會自動減少伺服器的數量,以節省成本。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/auto-scaling 快查頁:https://aiterms.tw/terms/auto-scaling 深度解說:https://aiterms.tw/learning/what-is-auto-scaling --- # 自動特徵工程(Automated Feature Engineering) 自動特徵工程利用演算法自動從原始資料中提取、選擇和轉換特徵,以提升機器學習模型的效能。 ## 完整說明 自動特徵工程是指利用演算法和自動化技術,從原始資料中自動提取、選擇和轉換特徵,以提升機器學習模型的效能。它旨在減少人工干預,加速特徵工程的過程,並發現人工難以發現的有效特徵。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/automated-feature-engineering 快查頁:https://aiterms.tw/terms/automated-feature-engineering 深度解說:https://aiterms.tw/learning/what-is-automated-feature-engineering --- # 自動駕駛技術(Autonomous Driving) 自動駕駛技術利用感測器、人工智慧和控制系統,使車輛能夠在沒有人為干預的情況下感知環境並自主導航。 ## 完整說明 自動駕駛技術是一種複雜的系統工程,它整合了感測器融合、路徑規劃、決策控制等多個領域的技術。其目標是使車輛能夠在各種交通環境下,安全、高效地完成駕駛任務,從而提高交通效率、降低事故率,並為人們提供更便捷的出行方式。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/autonomous-driving 快查頁:https://aiterms.tw/terms/autonomous-driving 深度解說:https://aiterms.tw/learning/what-is-autonomous-driving --- # 自我對弈(Self-play) 自我對弈是一種強化學習技術,其中智能體與自身的副本進行對弈,從而學習和改進策略,無需外部人類或標記數據。 ## 完整說明 自我對弈是一種強大的強化學習方法,智能體通過與自身的多個副本進行反覆對弈來學習。這種方法無需依賴外部數據或人類指導,而是通過自我生成的經驗來提升性能。自我對弈在遊戲AI領域取得了顯著成功,例如AlphaGo。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/self-play 快查頁:https://aiterms.tw/terms/self-play 深度解說:https://aiterms.tw/learning/what-is-self-play --- # 自注意力(Self-Attention) 自注意力是一種機制,讓序列中的每個元素計算彼此關聯度,藉此捕捉序列內部的依賴關係 ## 完整說明 自注意力是一種注意力機制,用於讓模型關注輸入序列中不同位置之間的關係。它能夠計算序列中每個位置與其他位置的相關性,並根據這些相關性加權求和,從而捕捉序列中的長距離依賴關係。自注意力在自然語言處理任務中被廣泛應用,例如機器翻譯和文本摘要。 ## 常見問題 ### 自注意力中的 Query, Key, Value 代表什麼? Query 代表查詢,Key 代表被查詢的對象,Value 代表 Key 對應的資訊。想像成一個資料庫,Query 是你提出的問題,Key 是資料庫中的索引,Value 是索引對應的資料。自注意力機制就是透過 Query 在 Key 中尋找相關的 Value。 ### 自注意力機制如何處理不同長度的序列? 自注意力機制可以處理不同長度的序列,因為它的計算是基於序列中所有元素的兩兩比較,而不是像 RNN 那樣依賴於固定的序列長度。然而,為了提高計算效率,通常會將不同長度的序列填充 (padding) 到相同的長度。 ### 位置編碼 (Positional Encoding) 在自注意力中扮演什麼角色? 位置編碼用於將序列中元素的位置信息添加到模型中。由於自注意力機制本身不具備感知位置信息的能力,因此需要透過位置編碼來告知模型每個元素在序列中的位置。常見的位置編碼方式包括正弦函數編碼和學習式編碼。 --- 來源:https://aiterms.tw/terms/self-attention 快查頁:https://aiterms.tw/terms/self-attention 深度解說:https://aiterms.tw/learning/what-is-self-attention --- # 自然語言理解(Natural Language Understanding) 自然語言理解(NLU)是人工智慧的一個分支,旨在使電腦能夠理解和解釋人類語言的含義,從而執行相關任務。 ## 完整說明 自然語言理解(NLU)是人工智慧(AI)的一個重要分支,專注於使電腦能夠理解和解釋人類語言的含義。它涉及將人類語言(例如文本或語音)轉換為電腦可以處理和理解的結構化表示形式,以便執行各種任務,例如情感分析、文本分類、機器翻譯和問答系統。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/natural-language-understanding 快查頁:https://aiterms.tw/terms/natural-language-understanding 深度解說:https://aiterms.tw/learning/what-is-natural-language-understanding --- # 自然語言生成(Natural Language Generation) 自然語言生成(NLG)是將結構化資料轉換為人類可理解的自然語言文本的AI技術,廣泛應用於報告生成、聊天機器人等。 ## 完整說明 自然語言生成(NLG)是人工智慧的一個分支,專注於將結構化的數據或資訊轉換成人類可以理解的自然語言文本。它涉及多個階段,包括內容規劃、句子規劃和表面實現,旨在產生流暢、連貫且符合語法的文本,模擬人類的寫作風格。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/natural-language-generation 快查頁:https://aiterms.tw/terms/natural-language-generation 深度解說:https://aiterms.tw/learning/what-is-natural-language-generation --- # 自然語言處理(Natural Language Processing) 自然語言處理使電腦能理解、分析和生成人類語言,是 AI 語音助理與翻譯等應用的核心技術 ## 完整說明 自然語言處理是一種人工智慧領域,用於使電腦能夠理解、處理和生成人類語言。它能夠讓電腦從文本或語音中提取信息、進行情感分析、機器翻譯、文本摘要等任務。在 iPAS 考試中,自然語言處理是重要的知識點,考察其基本概念、常見技術以及應用場景。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - NLP 核心技術原理(佔 40%) - NLP 應用場景分析(佔 40%) - NLP 技術選型判斷(佔 20%) ## 常見問題 ### 自然語言處理的資料前處理有哪些常見技巧? 常見的資料前處理技巧包含斷詞(Tokenization)、移除停用詞(Stop words removal)、詞幹提取(Stemming)與詞形還原(Lemmatization)。斷詞是將文本拆分成單獨的詞彙;移除停用詞是移除常見但不具備分析價值的詞彙;詞幹提取是將詞彙簡化為詞根;詞形還原則是將詞彙轉換為其原始形式,例如將複數名詞轉換為單數形式。 ### 情感分析在商業上有哪些應用? 情感分析在商業上的應用非常廣泛。例如,企業可以利用情感分析來監控社群媒體上的品牌聲譽,了解消費者對產品和服務的看法。零售商可以使用情感分析來分析客戶評論,找出產品的優缺點,並改進產品設計。金融機構可以使用情感分析來評估新聞報導和市場情緒,預測股價走勢。 ### 自然語言生成 (NLG) 與自然語言理解 (NLU) 有何不同? 自然語言理解 (NLU) 專注於讓電腦理解人類語言的含義,而自然語言生成 (NLG) 則專注於讓電腦以自然語言生成文本。NLU 就像是電腦在「聽」或「讀」,NLG 就像是電腦在「說」或「寫」。兩者是 NLP 的兩個互補面向,通常會結合使用,例如在聊天機器人中,NLU 用於理解用戶的提問,而 NLG 用於生成回答。 --- 來源:https://aiterms.tw/terms/natural-language-processing 快查頁:https://aiterms.tw/terms/natural-language-processing 深度解說:https://aiterms.tw/learning/what-is-natural-language-processing --- # 自編碼器(Autoencoder) 自編碼器是一種神經網路,旨在學習輸入數據的壓縮表示(編碼),然後從該壓縮表示重建原始數據(解碼)。 ## 完整說明 自編碼器是一種無監督學習的神經網路,其目標是學習輸入數據的壓縮表示(編碼),然後從該壓縮表示重建原始數據(解碼)。自編碼器由編碼器和解碼器兩部分組成,編碼器將輸入數據轉換為低維的編碼,解碼器則將編碼轉換回原始數據的近似值。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/autoencoder 快查頁:https://aiterms.tw/terms/autoencoder 深度解說:https://aiterms.tw/learning/what-is-autoencoder --- # 萃取、轉換、載入(Extract, Transform, Load) 萃取、轉換、載入(ETL)是資料工程的核心流程,指從多個來源提取數據,經過清洗與格式轉換,最終載入至目標資料倉儲的過程 ## 完整說明 萃取、轉換、載入 (ETL) 是一種資料倉儲流程,用於從多個來源提取數據,將其轉換為一致的格式,然後將其載入到目標資料倉儲中。它能夠整合來自不同系統的數據,並使其可用於分析和報告。ETL 是資料分析和商業智慧的基礎。 ## 常見問題 ### ETL 工具的選擇有哪些考量因素? 選擇 ETL 工具時,需要考慮資料來源的類型、資料量的大小、轉換的複雜度、預算以及團隊的技術能力。一些常見的 ETL 工具包括 Informatica PowerCenter、Talend Open Studio 和 Apache NiFi。 ### 如何保證 ETL 流程的資料品質? 保證 ETL 流程的資料品質需要從多個方面入手,包括資料驗證、資料清洗、資料轉換以及資料稽核。可以使用資料品質工具來自動化這些過程,並定期進行資料品質檢查。 ### ETL 流程的效能優化有哪些方法? ETL 流程的效能優化可以從多個方面入手,包括使用批量載入、優化 SQL 查詢、使用索引、增加計算資源以及使用並行處理。需要根據具體情況選擇最適合的優化方法。 --- 來源:https://aiterms.tw/terms/extract-transform-load 快查頁:https://aiterms.tw/terms/extract-transform-load 深度解說:https://aiterms.tw/learning/what-is-extract-transform-load --- # 蒙地卡羅方法(Monte Carlo Method) 蒙地卡羅方法是一種利用隨機抽樣來估算數學問題解的計算技術。它通過大量模擬隨機事件,統計結果,從而得到近似解。 ## 完整說明 蒙地卡羅方法(Monte Carlo Method)是一類利用隨機抽樣(或隨機數)來解決計算問題的數值方法。其核心思想是通過大量重複的隨機模擬,統計結果,從而得到問題的近似解。適用於解析解難以獲得或計算複雜度過高的問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/monte-carlo-method 快查頁:https://aiterms.tw/terms/monte-carlo-method 深度解說:https://aiterms.tw/learning/what-is-monte-carlo-method --- # 規則提取(Rule Extraction) 規則提取是從機器學習模型中提取人類可理解的規則的過程,旨在提高模型的可解釋性和可信度。 ## 完整說明 規則提取(Rule Extraction)是指從已訓練的機器學習模型中提取出人類可理解的規則的過程。這些規則通常以“如果...那麼...”的形式呈現,例如“如果溫度高於30度且濕度高於80%,那麼下雨的可能性很高”。規則提取旨在提高模型的可解釋性,使人們更容易理解模型如何做出決策,並驗證模型的合理性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/rule-extraction 快查頁:https://aiterms.tw/terms/rule-extraction 深度解說:https://aiterms.tw/learning/what-is-rule-extraction --- # 規劃(Planning) 在人工智慧中,規劃是指為達成特定目標,自動生成一系列行動步驟的過程。它涉及預測行動的結果,並選擇最佳的行動序列。 ## 完整說明 在人工智慧領域,規劃是指自動生成一系列行動步驟,以達到特定目標的過程。規劃系統需要能夠預測行動的結果,並選擇最佳的行動序列,同時考慮到資源限制、時間限制和環境約束等因素。規劃是實現自主行為的關鍵技術之一,廣泛應用於機器人、遊戲、自動駕駛等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/planning 快查頁:https://aiterms.tw/terms/planning 深度解說:https://aiterms.tw/learning/what-is-planning --- # 規模定律(Scaling Law) 規模定律描述了模型性能如何隨著模型大小、訓練數據量和計算資源的增加而變化。它提供了一種預測模型性能的經驗關係。 ## 完整說明 規模定律描述了大型機器學習模型(尤其是大型語言模型)的性能如何隨著模型參數數量、訓練數據集大小和訓練計算量的增加而變化。這些定律通常以冪律形式表達,表明性能的提升與規模的增加之間存在可預測的關係。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/scaling-law 快查頁:https://aiterms.tw/terms/scaling-law 深度解說:https://aiterms.tw/learning/what-is-scaling-law --- # 解碼器(Decoder) 解碼器負責將編碼器產生的向量,轉換成可理解的目標輸出,例如文字或圖片 ## 完整說明 解碼器是一種神經網路模型,通常與編碼器一起使用,用於將編碼後的表示轉換為目標輸出。它能夠根據編碼器的輸出生成文本、圖像或其他類型的數據。解碼器在機器翻譯、圖像生成和文本摘要等任務中被廣泛應用。 ## 常見問題 ### 解碼器在自然語言處理中的作用是什麼? 在自然語言處理(NLP)中,解碼器主要用於將編碼器處理過的文本信息轉換為人類可讀的文本或其他形式的輸出。例如,在機器翻譯中,編碼器負責理解源語言的句子,解碼器則負責生成目標語言的翻譯結果。 ### 解碼器的訓練過程是怎樣的? 解碼器的訓練通常使用監督學習方法,需要大量的訓練數據。在訓練過程中,模型會根據輸入的上下文向量和先前生成的輸出,預測下一個應該輸出的元素,並根據預測結果與真實值的差異,調整模型參數。 ### 有哪些常見的解碼器架構? 常見的解碼器架構包括循環神經網路(RNN),例如 LSTM 和 GRU,以及轉換器(Transformer)。Transformer 架構由於其並行計算能力和捕捉長距離依賴關係的能力,在許多 NLP 任務中表現出色。 --- 來源:https://aiterms.tw/terms/decoder 快查頁:https://aiterms.tw/terms/decoder 深度解說:https://aiterms.tw/learning/what-is-decoder --- # 訓練輪次(Epoch) 訓練輪次是指模型完整看過一次所有訓練資料的過程,用於迭代優化模型參數 ## 完整說明 訓練輪次(Epoch)是一種在機器學習中用於訓練模型的迭代次數。一個 Epoch 代表模型完整地遍歷一次訓練資料集。透過多次 Epoch,模型能夠逐步調整其內部參數,以更好地擬合訓練資料,從而提升模型的準確性和泛化能力。過少的 Epoch 可能導致模型欠擬合,而過多的 Epoch 可能導致過擬合。 ## 常見問題 ### 如果模型在幾個 Epoch 後就達到很高的準確率,還需要繼續訓練嗎? 不一定。如果模型在驗證集上的準確率也同步提升,可以繼續訓練,但要密切關注,一旦驗證集準確率開始下降,就應停止訓練。過早停止訓練可能導致模型欠擬合,但過度訓練則會導致過擬合。 ### 如何選擇合適的 Epoch 數量? 沒有絕對正確的 Epoch 數量。通常的做法是從一個較小的 Epoch 數量開始(例如 10 或 20),然後逐步增加,同時監控模型在驗證集上的表現。可以使用 Early Stopping 等技術來自動停止訓練,當驗證集準確率不再提升時。 ### 訓練輪次和世代(Generation)有什麼關係? 在某些情境下,訓練輪次和世代可以互換使用,尤其是在演算法的上下文中,例如演化式計算。然而,在深度學習中,訓練輪次通常更常用於描述模型看過整個訓練資料集的次數。 --- 來源:https://aiterms.tw/terms/epoch 快查頁:https://aiterms.tw/terms/epoch 深度解說:https://aiterms.tw/learning/what-is-epoch --- # 訓練集(Training Set) 訓練集是用於訓練機器學習模型的資料集,模型通過學習訓練集中的模式和關係來提升預測能力。 ## 完整說明 訓練集是機器學習中用於訓練模型的資料集。模型通過分析訓練集中的資料,學習資料的特徵、模式和關係,從而建立預測或分類的能力。訓練集的品質和數量直接影響模型的效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/training-set 快查頁:https://aiterms.tw/terms/training-set 深度解說:https://aiterms.tw/learning/what-is-training-set --- # 詐欺偵測(Fraud Detection) 詐欺偵測是利用資料分析和機器學習技術,識別異常模式和行為,以預防和檢測詐欺活動。 ## 完整說明 詐欺偵測是一種利用資料分析、機器學習和人工智慧技術,識別異常模式和行為,以預防和檢測詐欺活動的過程。它廣泛應用於金融、保險、電子商務等領域,旨在減少因詐欺造成的損失。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/fraud-detection 快查頁:https://aiterms.tw/terms/fraud-detection 深度解說:https://aiterms.tw/learning/what-is-fraud-detection --- # 詞向量(Word2Vec) 詞向量(Word2Vec)是一種將詞語轉換為數字向量的技術,其核心概念是讓語意相近的詞彙在向量空間中的距離更接近 ## 完整說明 詞向量(Word2Vec)是一種將文字轉換為數值向量的技術,屬於自然語言處理的範疇。它透過分析大量文本資料,學習單詞之間的語義關係,將每個單詞映射到一個高維向量空間中。相似的單詞在向量空間中距離較近,因此 Word2Vec 能夠捕捉單詞的語義資訊,並應用於各種自然語言處理任務,例如文本分類、情感分析等。 ## 常見問題 ### 詞向量的維度應該如何選擇? 詞向量的維度選擇取決於具體的應用場景和數據集大小。通常來說,較大的數據集可以使用較高的維度,以捕捉更豐富的語義信息。常見的維度範圍是 100-300 維。需要注意的是,維度過高可能會導致過擬合,因此需要進行適當的調整。 ### 是否需要對訓練數據進行預處理? 是的,通常需要對訓練數據進行預處理,包括去除停用詞、標點符號、轉換為小寫等。這些預處理步驟可以提高詞向量的質量,並減少噪音的干擾。此外,還可以使用詞幹提取或詞形還原等技術,將詞彙轉換為其基本形式。 ### 除了 Word2Vec,還有其他詞向量模型嗎? 是的,除了 Word2Vec,還有 GloVe、FastText 等詞向量模型。GloVe 基於全局詞彙共現矩陣來學習詞向量,而 FastText 則考慮了詞彙的子詞信息,可以更好地處理罕見詞彙。選擇哪種模型取決於具體的應用場景和數據集特點。 --- 來源:https://aiterms.tw/terms/word2vec 快查頁:https://aiterms.tw/terms/word2vec 深度解說:https://aiterms.tw/learning/what-is-word2vec --- # 詞幹提取(Stemming) 詞幹提取是自然語言處理中將單詞簡化為其詞幹或詞根形式的過程,通常通過刪除後綴來實現。 ## 完整說明 詞幹提取是一種自然語言處理技術,旨在將單詞簡化為其詞幹或詞根形式。它通常通過刪除單詞的後綴(例如,'-ing'、'-ed'、'-s')來實現。詞幹提取的主要目標是減少詞彙的維度,並將相關的單詞歸為一類。與詞形還原不同,詞幹提取不考慮單詞的語法或上下文。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/stemming 快查頁:https://aiterms.tw/terms/stemming 深度解說:https://aiterms.tw/learning/what-is-stemming --- # 詞形還原(Lemmatization) 詞形還原是自然語言處理中將單詞還原為其基本形式(詞元)的過程,考慮了單詞的語法和上下文。 ## 完整說明 詞形還原是一種自然語言處理技術,旨在將單詞轉換為其詞典形式,稱為詞元。與詞幹提取不同,詞形還原考慮了單詞的語法和上下文,以確保詞元是有效的單詞。這使得詞形還原在需要語義準確性的應用中更為準確。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/lemmatization 快查頁:https://aiterms.tw/terms/lemmatization 深度解說:https://aiterms.tw/learning/what-is-lemmatization --- # 詞性標注(Part-of-Speech Tagging) 詞性標注是自然語言處理中,為句子中的每個詞彙指定詞性的過程,例如名詞、動詞、形容詞等,是後續語法分析的基礎。 ## 完整說明 詞性標注(Part-of-Speech Tagging, POS Tagging)是自然語言處理(NLP)中的一項基本任務,旨在為給定文本中的每個詞彙分配其對應的詞性(Part-of-Speech, POS)。詞性包括名詞、動詞、形容詞、副詞、介詞、連詞等。詞性標注是許多更高級NLP任務的基礎,例如語法分析、資訊抽取和機器翻譯。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/part-of-speech-tagging 快查頁:https://aiterms.tw/terms/part-of-speech-tagging 深度解說:https://aiterms.tw/learning/what-is-part-of-speech-tagging --- # 詞義消歧(Word Sense Disambiguation) 詞義消歧(WSD)是自然語言處理中的一項任務,旨在確定一個詞在特定上下文中的正確含義,因為許多詞具有多重含義。 ## 完整說明 詞義消歧(Word Sense Disambiguation, WSD)是自然語言處理(NLP)中的一項核心任務,其目標是根據詞語出現的上下文,自動確定該詞語在特定語境下的正確含義。由於自然語言中存在大量的多義詞(polysemy),一個詞語可能有多種不同的含義,因此詞義消歧對於理解文本的真實含義至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/word-sense-disambiguation 快查頁:https://aiterms.tw/terms/word-sense-disambiguation 深度解說:https://aiterms.tw/learning/what-is-word-sense-disambiguation --- # 詞袋模型(Bag of Words) 詞袋模型是一種簡化文本表示的方法,忽略詞語的順序和語法結構,僅統計每個詞語在文本中出現的次數,形成詞頻向量。 ## 完整說明 詞袋模型 (Bag of Words, BoW) 是一種在自然語言處理和資訊檢索中常用的文本表示方法。它將文本視為一個無序的詞語集合,忽略詞語的順序、語法結構和上下文關係,僅僅統計每個詞語在文本中出現的頻率。這種方法簡單易懂,計算效率高,但會丟失大量的語義信息。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bag-of-words 快查頁:https://aiterms.tw/terms/bag-of-words 深度解說:https://aiterms.tw/learning/what-is-bag-of-words --- # 語句片段(SentencePiece) SentencePiece 是一種獨立於語言的分詞器,它將輸入視為 Unicode 字符序列,並使用 BPE 或 Unigram 算法生成詞彙表。 ## 完整說明 SentencePiece 是一個獨立於語言的分詞器和逆分詞器,主要用於神經網路模型。它將輸入文本視為 Unicode 字符序列,並允許使用不同的分詞算法,如 Byte Pair Encoding (BPE) 或 Unigram 語言模型,來生成詞彙表。SentencePiece 的設計目標是簡化文本預處理流程,並支持多語言環境。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sentencepiece 快查頁:https://aiterms.tw/terms/sentencepiece 深度解說:https://aiterms.tw/learning/what-is-sentencepiece --- # 語意核心(Semantic Kernel) Semantic Kernel是一個輕量級的開源SDK,使您可以將大型語言模型(LLMs)與傳統程式語言(如C#、Python)整合,建立AI應用。 ## 完整說明 Semantic Kernel是一個輕量級的開源SDK,旨在簡化將大型語言模型(LLMs)整合到傳統程式語言(如C#、Python)中的過程。它提供了一個靈活且可擴展的框架,用於構建AI應用程式,這些應用程式可以利用LLM的強大功能來執行各種任務,例如自然語言理解、生成和推理。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/semantic-kernel 快查頁:https://aiterms.tw/terms/semantic-kernel 深度解說:https://aiterms.tw/learning/what-is-semantic-kernel --- # 語料庫(Corpus) 語料庫是大量結構化的文本集合,用於語言研究和自然語言處理,提供真實語言使用的範例,用於訓練和評估模型。 ## 完整說明 語料庫是指大量結構化的文本集合,通常以電子形式存在。語料庫的設計目的是提供真實語言使用的範例,用於語言研究、自然語言處理和機器學習等領域。語料庫的規模、內容和結構會根據不同的應用而有所不同。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/corpus 快查頁:https://aiterms.tw/terms/corpus 深度解說:https://aiterms.tw/learning/what-is-corpus --- # 語義分析(Semantic Analysis) 語義分析旨在理解文本的真實含義,超越字面解釋,提取句子或段落的深層語義結構和關係,賦予機器理解語言的能力。 ## 完整說明 語義分析是自然語言處理中的關鍵步驟,它不僅僅關注單詞的表面意義,更重要的是理解句子、段落甚至整個文檔的真實含義。它涉及識別詞彙之間的關係、消除歧義、推斷隱含信息,最終構建文本的語義表示,使機器能夠像人類一樣理解語言。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/semantic-analysis 快查頁:https://aiterms.tw/terms/semantic-analysis 深度解說:https://aiterms.tw/learning/what-is-semantic-analysis --- # 語義搜尋(Semantic Search) 語義搜尋是一種理解使用者搜尋意圖和上下文的搜尋技術,超越了關鍵字匹配,旨在提供更相關和精確的搜尋結果。 ## 完整說明 語義搜尋是一種搜尋技術,旨在理解使用者搜尋查詢的意圖和上下文,而不僅僅是匹配關鍵字。它利用自然語言處理 (NLP) 和機器學習 (ML) 技術,以提供更相關和精確的搜尋結果。常見應用包括網路搜尋、企業搜尋和問答系統。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/semantic-search 快查頁:https://aiterms.tw/terms/semantic-search 深度解說:https://aiterms.tw/learning/what-is-semantic-search --- # 語者分段(Speaker Diarization) 語者分段旨在識別音訊中不同語者的發言時間段,並將其區分開來,無需事先知道語者身份。 ## 完整說明 語者分段是一項自動化技術,用於識別音訊記錄中不同語者的發言時間段。它旨在將音訊流分割成同質的語者片段,並將每個片段分配給一個特定的語者群體,而無需事先知道語者的身份或數量。此技術在會議記錄、電話客服分析等場景中至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/speaker-diarization 快查頁:https://aiterms.tw/terms/speaker-diarization 深度解說:https://aiterms.tw/learning/what-is-speaker-diarization --- # 語言模型(Language Model) 語言模型是一種機器學習模型,用於預測給定文本序列中下一個詞彙或字符的概率分佈,是自然語言處理的基礎。 ## 完整說明 語言模型 (LM) 是一種機器學習模型,它學習預測給定文本序列中下一個詞彙或字符的概率分佈。它通過分析大量的文本數據來學習語言的統計規律,並利用這些規律來預測未來的文本。語言模型是自然語言處理 (NLP) 的基礎,廣泛應用於各種 NLP 任務。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/language-model 快查頁:https://aiterms.tw/terms/language-model 深度解說:https://aiterms.tw/learning/what-is-language-model --- # 語音助理(Voice Assistant) 語音助理是一種使用語音辨識、自然語言處理等技術,讓人們透過語音指令與設備互動的AI系統。 ## 完整說明 語音助理是一種基於人工智慧的應用程式或設備,它能夠理解人類的語音指令並執行相應的操作。它結合了語音辨識、自然語言處理、語音合成等多種技術,讓人們可以透過語音與設備進行互動,例如查詢資訊、控制智能家居設備、設定提醒等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/voice-assistant 快查頁:https://aiterms.tw/terms/voice-assistant 深度解說:https://aiterms.tw/learning/what-is-voice-assistant --- # 語音合成技術(Speech Synthesis) 語音合成技術是一種將文字轉換成人類語音的技術,也稱為文字轉語音(TTS)。它廣泛應用於語音助理、導航系統和輔助科技等領域。 ## 完整說明 語音合成技術,又稱文字轉語音(TTS),是一種將文字資訊轉換成人類語音的技術。它利用電腦演算法和模型,將輸入的文字轉換為可聽的聲音訊號,模擬人類的說話方式。語音合成技術在許多領域都有應用,例如語音助理、導航系統、輔助科技和娛樂等。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/speech-synthesis 快查頁:https://aiterms.tw/terms/speech-synthesis 深度解說:https://aiterms.tw/learning/what-is-speech-synthesis --- # 語音轉錄模型(Whisper) Whisper 是 OpenAI 開發的語音辨識系統,能將語音轉換為文字,支援多種語言,並具備良好的抗噪能力和翻譯功能。 ## 完整說明 Whisper 是一個由 OpenAI 開發的自動語音辨識 (ASR) 系統。它接受音訊作為輸入,並將其轉錄成文字。Whisper 的主要優勢在於其強大的多語言支援、對不同口音的適應性,以及在嘈雜環境中保持高準確度的能力。此外,它還能執行語音翻譯,將一種語言的語音轉錄成另一種語言的文字。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/whisper 快查頁:https://aiterms.tw/terms/whisper 深度解說:https://aiterms.tw/learning/what-is-whisper --- # 語音辨識(Speech Recognition) 語音辨識是一種將人類語音轉換為機器可理解的文字或指令的技術,使電腦能夠聽懂並處理人類語言。 ## 完整說明 語音辨識(Speech Recognition),又稱自動語音辨識(Automatic Speech Recognition, ASR),是一種將人類口語轉換為文本或其他機器可理解形式的技術。其核心概念是通過分析語音訊號的聲學特徵,並將這些特徵與預先建立的聲學模型和語言模型進行比對,從而判斷語音內容。 語音辨識的發展歷程可以追溯到 20 世紀 50 年代,最初的系統只能識別少量詞彙。隨著電腦運算能力的提升和機器學習技術的發展,特別是深度學習的應用,語音辨識的準確率和應用範圍得到了顯著提高。現在,語音辨識技術廣泛應用於語音助手、智能家居、客戶服務、醫療保健等領域。 在 iPAS 初級 AI 基礎概論(L11402)考試中,語音辨識是一個重要的考點。考生需要理解語音辨識的基本原理、常見的聲學模型和語言模型、以及其在實際應用中的優缺點。理解語音辨識的評估指標,例如詞錯誤率(Word Error Rate, WER),也至關重要。掌握這些知識,能幫助考生更好地理解 AI 技術在人機交互領域的應用。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 5%,屬於中頻考範圍。 常見出題方向: - 應用場景識別與分析(佔 45%) - 技術整合方案設計(佔 35%) - 實務應用案例判斷(佔 20%) ## 常見問題 ### 什麼是語音辨識? 語音辨識是一種將人類語音轉換為機器可理解的文字或指令的技術,使電腦能夠聽懂並處理人類語言。它結合了聲學模型和語言模型,在人機交互中扮演重要角色。 ### 語音辨識在 iPAS 考試中怎麼考? iPAS 初級考試(L11402)中,語音辨識的考點包括基本概念、核心技術(聲學模型、語言模型)、評估指標(詞錯誤率)和實際應用。常見題型有選擇題、簡答題和案例分析。 ### 語音辨識和哪個術語最常被混淆? 語音辨識最常與語音合成混淆。語音辨識是將語音轉換為文字,而語音合成則是將文字轉換為語音。兩者功能相反,但都是語音處理的重要組成部分,應用於不同場景。 --- 來源:https://aiterms.tw/terms/speech-recognition 快查頁:https://aiterms.tw/terms/speech-recognition 深度解說:https://aiterms.tw/learning/what-is-speech-recognition --- # 變分自編碼器(Variational Autoencoder) 變分自編碼器將資料編碼為機率分佈的潛在空間,並能從中取樣生成具有多樣性的新資料 ## 完整說明 變分自編碼器(Variational Autoencoder,VAE)是一種生成式模型,屬於深度學習的範疇。它結合了自編碼器和變分推論的思想,能夠學習資料的潛在表示,並從該潛在空間中生成新的資料樣本。VAE 在 iPAS 中級考試中,可能會考察其基本原理、架構以及與傳統自編碼器的區別,例如 VAE 學習的是潛在變數的分布而非單一向量。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 4%,屬於未分類考範圍。 ## 常見問題 ### 變分自編碼器 (VAE) 的潛在空間是什麼? VAE 的潛在空間是一個低維的機率分佈空間,模型會將輸入資料壓縮到這個空間。與傳統自編碼器不同,VAE 強迫資料呈現特定的分佈(通常是高斯分佈),這使得我們可以從這個空間中取樣,生成新的、與訓練資料相似的資料點。潛在空間的維度決定了模型能捕捉的資料複雜度。 ### KL 散度在 VAE 中扮演什麼角色? KL 散度(Kullback-Leibler divergence)在 VAE 的損失函數中用於衡量編碼器輸出的潛在分佈與預設的先驗分佈(通常是標準高斯分佈)之間的差異。它的作用是正規化潛在空間,防止模型學習到過於複雜或不連續的潛在表示。透過最小化 KL 散度,VAE 可以確保潛在空間具有良好的結構,從而更容易生成有意義的新樣本。 ### VAE 如何用於異常檢測? VAE 可用於異常檢測,其原理是模型學習正常資料的潛在空間表示。當輸入異常資料時,VAE 無法有效地重建它,導致重建誤差較大。因此,可以設定一個重建誤差的閾值,當重建誤差超過這個閾值時,就判斷輸入資料為異常。這種方法適用於需要自動化檢測異常的場景,例如工業製造中的產品缺陷檢測。 --- 來源:https://aiterms.tw/terms/variational-autoencoder 快查頁:https://aiterms.tw/terms/variational-autoencoder 深度解說:https://aiterms.tw/learning/what-is-variational-autoencoder --- # 變異數分析(ANOVA) 變異數分析 (ANOVA) 是一種統計方法,用於比較兩個或多個群體的平均數是否存在顯著差異。它將總變異分解為不同來源的變異。 ## 完整說明 變異數分析 (ANOVA) 是一種統計檢定方法,用於比較兩個或多個群體的平均數是否存在顯著差異。它通過將總變異分解為不同來源的變異(例如組間變異和組內變異),來判斷組間差異是否大於隨機變異。ANOVA 廣泛應用於實驗設計、醫學研究和工程領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/anova 快查頁:https://aiterms.tw/terms/anova 深度解說:https://aiterms.tw/learning/what-is-anova --- # 貝氏最佳化(Bayesian Optimization) 貝氏最佳化是一種用於最佳化黑盒函數的演算法,它使用貝氏模型來建立目標函數的代理模型,並利用該模型來選擇下一個要評估的點,以在最少的迭代次數內找到最佳解。 ## 完整說明 貝氏最佳化是一種序列模型最佳化方法,適用於目標函數評估成本高昂且導數不可用的情況。它使用高斯過程等貝氏模型來建立目標函數的概率代理模型,並使用採集函數來決定下一個要評估的點,以平衡探索(探索未知區域)和利用(利用已知良好區域)。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bayesian-optimization 快查頁:https://aiterms.tw/terms/bayesian-optimization 深度解說:https://aiterms.tw/learning/what-is-bayesian-optimization --- # 貝氏定理(Bayes Theorem) 貝氏定理描述在已知一些條件下,事件發生的機率。它基於先驗機率、條件機率和證據,更新對事件的信念。 ## 完整說明 貝氏定理是一種概率論中的重要定理,它描述了在已知一些條件下,事件發生的機率。更具體地說,貝氏定理描述了在給定證據的情況下,一個假設的機率。它基於先驗機率(prior probability)、條件機率(likelihood)和證據(evidence),來更新對事件的信念。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bayes-theorem 快查頁:https://aiterms.tw/terms/bayes-theorem 深度解說:https://aiterms.tw/learning/what-is-bayes-theorem --- # 負責任AI(Responsible AI) 負責任AI是指以符合倫理、社會價值觀和法律規範的方式開發、部署和使用AI系統。 ## 完整說明 負責任AI是一種綜合性的方法,旨在確保AI系統的開發、部署和使用符合倫理原則、社會價值觀和法律規範。它強調AI的公平性、透明度、可解釋性、安全性和責任性,並鼓勵利益相關者共同努力,以最大限度地發揮AI的社會效益,同時最大限度地減少其潛在風險。負責任AI的目標是建立一個可信賴的AI生態系統,常見應用包括倫理設計、風險評估和影響力分析。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/responsible-ai 快查頁:https://aiterms.tw/terms/responsible-ai 深度解說:https://aiterms.tw/learning/what-is-responsible-ai --- # 貪婪解碼(Greedy Decoding) 貪婪解碼是一種序列生成方法,在每個時間步選擇概率最高的詞作為輸出,直到生成終止符號或達到最大長度。它簡單快速,但可能陷入局部最佳解。 ## 完整說明 貪婪解碼是一種簡單的序列生成方法,它在每個時間步選擇模型預測概率最高的詞作為輸出序列的一部分。這種方法的優點是速度快且易於實現,但缺點是它只考慮當前時間步的最佳選擇,而忽略了未來時間步的影響,因此容易陷入局部最佳解,導致生成的序列質量較差。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/greedy-decoding 快查頁:https://aiterms.tw/terms/greedy-decoding 深度解說:https://aiterms.tw/learning/what-is-greedy-decoding --- # 資料並行(Data Parallelism) 資料並行是一種分散式訓練方法,將資料分割成多份,分配給多個節點,每個節點使用相同模型副本訓練不同資料子集。 ## 完整說明 資料並行是一種常見的分散式訓練策略,其核心思想是將訓練資料分割成多個子集,每個計算節點(例如GPU)都擁有一份完整的模型副本,但使用不同的資料子集進行訓練。每個節點獨立計算梯度,然後將梯度同步到一個中心節點或使用All-Reduce等方法進行聚合,最後更新模型參數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-parallelism 快查頁:https://aiterms.tw/terms/data-parallelism 深度解說:https://aiterms.tw/learning/what-is-data-parallelism --- # 資料倉儲(Data Warehouse) 資料倉儲是針對查詢與分析優化的結構化資料儲存系統,整合多來源資料以支援商業智慧決策 ## 完整說明 資料倉儲(Data Warehouse)是一種集中式的資料儲存系統,用於儲存和管理來自不同來源的結構化資料。它主要用於支援商業智慧(BI)和決策支援系統,提供一致、整合的資料視圖,方便分析和報告。在 iPAS 初級考試中,可能會考察資料倉儲的基本概念、與資料庫的區別,以及其在資料分析中的作用。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 5%,屬於中頻考範圍。 常見出題方向: - 資料庫架構設計(佔 40%) - 儲存機制與效能(佔 35%) - 資料管理策略(佔 25%) ## 常見問題 ### 資料倉儲的 ETL 流程中,什麼是資料清洗? 資料清洗是 ETL 流程中轉換階段的一個重要環節,旨在移除或更正資料中的錯誤、不一致性、缺失值和重複項。例如,將不同格式的日期統一轉換為 YYYY-MM-DD 格式,或處理缺失的客戶電話號碼。資料清洗的目標是確保資料的品質,提高分析的準確性。 ### 資料倉儲的資料建模有哪些常見的模式? 資料倉儲常見的資料建模模式包括星型模式和雪花模式。星型模式以一個中心的事實表和多個維度表組成,結構簡單,查詢效率高。雪花模式則將維度表進一步分解成多個子維度表,結構更複雜,但可以減少資料冗餘。選擇哪種模式取決於具體的業務需求和資料量。 ### 資料倉儲如何應對不斷增長的資料量? 資料倉儲可以透過多種方式應對不斷增長的資料量,包括水平擴展(增加硬體資源)、垂直擴展(升級硬體配置)、資料分割(將資料分散儲存在多個節點上)、以及資料壓縮(減少資料儲存空間)。選擇哪種方式取決於具體的硬體環境、軟體架構、以及預算限制。 --- 來源:https://aiterms.tw/terms/data-warehouse 快查頁:https://aiterms.tw/terms/data-warehouse 深度解說:https://aiterms.tw/learning/what-is-data-warehouse --- # 資料前處理(Data Preprocessing) 資料前處理是指在將原始資料用於機器學習模型之前,對其進行清理、轉換和整合的過程,以提高模型效能和準確性。 ## 完整說明 資料前處理是機器學習流程中至關重要的一環,它涉及對原始資料進行一系列轉換,使其更適合模型訓練。這些轉換包括清理缺失值、處理異常值、轉換資料格式、縮放數值特徵以及整合來自不同來源的資料。有效的資料前處理能顯著提升模型效能和泛化能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-preprocessing 快查頁:https://aiterms.tw/terms/data-preprocessing 深度解說:https://aiterms.tw/learning/what-is-data-preprocessing --- # 資料品質監控(Data Quality Monitoring) 資料品質監控是指持續追蹤和評估資料的準確性、完整性、一致性、時效性和有效性,以確保資料符合預期標準。 ## 完整說明 資料品質監控是一個持續性的過程,旨在追蹤、評估和報告資料的品質。它涉及定義資料品質指標,設定閾值,並定期檢查資料是否符合這些標準。有效的資料品質監控有助於識別和解決資料問題,確保資料驅動決策的可靠性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-quality-monitoring 快查頁:https://aiterms.tw/terms/data-quality-monitoring 深度解說:https://aiterms.tw/learning/what-is-data-quality-monitoring --- # 資料填補(Data Imputation) 資料填補是處理遺失值的方法,透過統計方法估算並替換遺失值,以維持資料完整性,避免分析偏差。 ## 完整說明 資料填補是一種處理資料集中遺失值的技術。它使用統計方法來估算遺失值,並用這些估算值替換原始的遺失值,從而維持資料集的完整性,並減少因遺失值造成的分析偏差。常見方法包括均值填補、中位數填補、眾數填補、迴歸填補和多重填補。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-imputation 快查頁:https://aiterms.tw/terms/data-imputation 深度解說:https://aiterms.tw/learning/what-is-data-imputation --- # 資料投毒攻擊(Data Poisoning) 資料投毒攻擊是一種惡意攻擊,攻擊者將惡意或錯誤的資料注入到訓練資料集中,以影響機器學習模型的性能或行為。攻擊目標是使模型產生錯誤的預測或執行其他有害操作。 ## 完整說明 資料投毒攻擊(Data Poisoning Attack)是一種針對機器學習模型的攻擊,攻擊者通過將惡意或錯誤的資料注入到模型的訓練資料集中,來影響模型的性能或行為。攻擊的目的是使模型產生錯誤的預測,或者執行其他有害的操作,例如,將垃圾郵件分類為非垃圾郵件,或者將惡意軟體分類為良性軟體。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-poisoning 快查頁:https://aiterms.tw/terms/data-poisoning 深度解說:https://aiterms.tw/learning/what-is-data-poisoning --- # 資料擴增術(Data Augmentation) 資料擴增術是一種增加訓練資料多樣性的技術,透過對現有資料進行微小的修改,創造出新的、但仍然代表相同類別的資料點,以提升模型泛化能力。 ## 完整說明 資料擴增術是一種在機器學習中常用的技術,旨在增加訓練資料集的大小和多樣性。它通過對現有資料進行各種轉換(例如旋轉、縮放、裁剪、翻轉、添加雜訊等)來生成新的、略有不同的資料樣本。這有助於提高模型的泛化能力,使其在面對未見過的資料時表現更好,並減少過擬合的風險。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-augmentation 快查頁:https://aiterms.tw/terms/data-augmentation 深度解說:https://aiterms.tw/learning/what-is-data-augmentation --- # 資料標註(Data Annotation) 資料標註是為資料集添加標籤或註解的過程,使機器學習模型能夠理解和學習這些資料,是模型訓練的基礎。 ## 完整說明 資料標註是指為原始資料(如圖像、文本、音訊、影片等)添加標籤、註解或詮釋的過程。這些標籤提供了關於資料的額外資訊,使機器學習模型能夠理解和學習這些資料。高品質的資料標註對於訓練出準確可靠的模型至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-annotation 快查頁:https://aiterms.tw/terms/data-annotation 深度解說:https://aiterms.tw/learning/what-is-data-annotation --- # 資料標註(Data Labeling) 資料標註是指為原始資料添加標籤的過程,這些標籤提供關於資料的額外資訊,用於訓練監督式機器學習模型。 ## 完整說明 資料標註是監督式機器學習中不可或缺的步驟,它涉及為原始資料(例如圖像、文本、音訊或影片)添加標籤或註釋。這些標籤提供關於資料的額外資訊,例如物件的類別、文本的情感或音訊的內容。標註後的資料被用於訓練監督式機器學習模型,使其能夠學習資料的模式並進行預測。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-labeling 快查頁:https://aiterms.tw/terms/data-labeling 深度解說:https://aiterms.tw/learning/what-is-data-labeling --- # 資料湖(Data Lake) 資料湖是一種大型儲存池,能以原始格式存放結構化與非結構化的各式資料 ## 完整說明 資料湖(Data Lake)是一種集中式的資料儲存庫,允許以原始格式儲存結構化、半結構化和非結構化資料。與資料倉儲不同,資料湖不要求預先定義資料結構,具有更高的靈活性和可擴展性。資料湖適用於探索性資料分析、機器學習和人工智慧應用,能夠處理各種資料來源和格式,並支援多種分析工具。 ## 常見問題 ### 資料湖的資料治理包含哪些方面? 資料湖的資料治理包含資料品質管理、資料沿襲追蹤、資料安全控制、資料目錄管理以及資料生命週期管理等多個方面。目的是確保資料的準確性、一致性、可追溯性和安全性,從而提高資料的價值。 ### 資料湖的安全性如何保障? 資料湖的安全性可以通過多種方式來保障,包括存取控制、資料加密、身份驗證、授權以及安全監控。重要的是實施分層安全模型,以保護資料免受未經授權的存取和惡意攻擊。 ### 資料湖的成本效益體現在哪裡? 資料湖的成本效益主要體現在使用低成本的儲存技術(例如雲端物件儲存)、減少資料轉換的需求以及提高資料利用率等方面。透過儲存原始資料,企業可以避免不必要的資料轉換和複製,從而降低儲存和處理成本。 --- 來源:https://aiterms.tw/terms/data-lake 快查頁:https://aiterms.tw/terms/data-lake 深度解說:https://aiterms.tw/learning/what-is-data-lake --- # 資料漂移(Data Drift) 資料漂移是指模型上線後,輸入資料的分布與訓練資料不同,進而造成模型預測效能降低的現象 ## 完整說明 資料漂移是一種機器學習模型部署後,輸入模型的資料分布與訓練時的資料分布產生顯著差異的現象。這種差異可能導致模型效能下降,因為模型是在不同的資料分布上訓練的。資料漂移的監控和處理對於維持模型在生產環境中的準確性和可靠性至關重要。常見的處理方法包括重新訓練模型、調整模型參數或使用領域適應技術。 ## 常見問題 ### 如何量化資料漂移的程度? 量化資料漂移程度可以使用多種統計指標,例如 Kolmogorov-Smirnov 檢驗的 D 值、KL 散度、Wasserstein 距離等。這些指標可以衡量訓練資料和實際應用資料分布之間的差異程度,數值越大表示漂移程度越高。選擇哪種指標取決於資料的類型和分布特性。 ### 有哪些常用的資料漂移檢測工具? 常用的資料漂移檢測工具包括 TensorFlow Data Validation (TFDV)、Evidently AI、NannyML 等。這些工具可以自動計算資料的統計特性,並檢測是否存在資料漂移。它們通常提供可視化界面,方便使用者分析和理解資料漂移的原因。 ### 如何有效地處理資料漂移? 處理資料漂移的方法包括重新訓練模型、調整模型參數、使用線上學習算法、以及進行資料增強等。重新訓練模型是常見的方法,但需要注意避免過擬合。線上學習算法可以不斷學習新的資料,以適應資料分布的變化。資料增強可以通過合成新的資料來擴充訓練集,以減少資料漂移的影響。 --- 來源:https://aiterms.tw/terms/data-drift 快查頁:https://aiterms.tw/terms/data-drift 深度解說:https://aiterms.tw/learning/what-is-data-drift --- # 資料版本控制(Data Versioning) 資料版本控制追蹤資料集在不同時間點的狀態,確保可重複性、可追溯性,並允許回復到先前的資料版本。 ## 完整說明 資料版本控制是一種管理資料集變更的實踐,它記錄資料在不同時間點的狀態。這使得研究人員和工程師能夠追蹤資料的演變、重現實驗結果,並在需要時回復到先前的資料版本。有效的資料版本控制對於確保機器學習模型的可靠性和可重複性至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-versioning 快查頁:https://aiterms.tw/terms/data-versioning 深度解說:https://aiterms.tw/learning/what-is-data-versioning --- # 資料管線(Data Pipeline) 資料管線是一系列資料處理步驟,將原始資料轉換為可供分析或模型使用的格式,包含擷取、轉換、載入等階段。 ## 完整說明 資料管線是一系列有序的資料處理步驟,旨在將原始資料轉換為可用於分析、機器學習模型訓練或報告的格式。它通常包含資料擷取、資料轉換、資料驗證和資料載入等階段,確保資料的品質和一致性。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-pipeline 快查頁:https://aiterms.tw/terms/data-pipeline 深度解說:https://aiterms.tw/learning/what-is-data-pipeline --- # 資料血緣追蹤(Data Lineage) 資料血緣追蹤記錄資料從來源到目的地的流動和轉換,提供資料的完整歷史和上下文,確保資料品質和可追溯性。 ## 完整說明 資料血緣追蹤是一種追蹤資料從其來源到其最終目的地的旅程的過程。它記錄了資料在整個生命週期中經歷的所有轉換和處理步驟。資料血緣追蹤對於理解資料的上下文、確保資料品質、滿足合規性要求以及簡化資料治理至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/data-lineage 快查頁:https://aiterms.tw/terms/data-lineage 深度解說:https://aiterms.tw/learning/what-is-data-lineage --- # 資訊理論(Information Theory) 資訊理論研究資訊的量化、儲存與傳輸,核心概念包含熵、互資訊、通道容量等,為資料壓縮、通訊編碼等領域奠定基礎。 ## 完整說明 資訊理論是由克勞德·香農於1948年創立的學科,旨在量化資訊。它提供了一套數學工具,用於分析和設計高效的資料壓縮、可靠的通訊系統以及密碼學等領域。其核心概念包括熵、互資訊、通道容量等,對現代資訊科技產生了深遠影響。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/information-theory 快查頁:https://aiterms.tw/terms/information-theory 深度解說:https://aiterms.tw/learning/what-is-information-theory --- # 超參數(Hyperparameter) 超參數是機器學習模型訓練前,由人為設定且影響模型學習效果的參數,例如學習率或網路層數 ## 完整說明 超參數是一種在機器學習模型訓練之前設定的參數,它控制著模型的學習過程,例如學習率、正則化強度或神經網路的層數。與模型參數不同,超參數不是通過訓練資料學習得到的,而是需要人工設定或通過自動化方法(如網格搜索或貝葉斯優化)進行調整。在 iPAS 考試中,理解超參數及其對模型效能的影響是重要的。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 超參數調校有哪些常見策略? 常見的超參數調校策略包括網格搜尋、隨機搜尋和貝葉斯優化。網格搜尋會窮舉所有可能的超參數組合,而隨機搜尋則會隨機選擇超參數組合。貝葉斯優化則會使用概率模型來預測不同超參數組合的效能,並選擇最有希望的組合進行評估。貝葉斯優化通常比網格搜尋和隨機搜尋更有效率。 ### 過擬合時,可以調整哪些超參數來改善? 當模型出現過擬合時,可以調整正則化強度、減少神經網路的層數或節點數、增加 dropout 率等超參數來改善。正則化可以防止模型學習過於複雜的模式,而減少模型的大小可以降低模型的容量。Dropout 則可以隨機丟棄一些神經元,防止模型過度依賴特定的特徵。 ### 如何判斷學習率是否設定得太高或太低? 如果學習率設定得太高,模型在訓練過程中可能會出現震盪或發散,損失函數的值會不斷增大。如果學習率設定得太低,模型在訓練過程中收斂速度會非常慢,需要很長時間才能達到最佳效能。可以通過觀察訓練過程中損失函數的變化趨勢來判斷學習率是否設定得合適。 --- 來源:https://aiterms.tw/terms/hyperparameter 快查頁:https://aiterms.tw/terms/hyperparameter 深度解說:https://aiterms.tw/learning/what-is-hyperparameter --- # 超參數調校(Hyperparameter Tuning) 超參數調校是機器學習中,尋找最佳超參數組合以提升模型效能的過程,涉及多次模型訓練與評估。 ## 完整說明 超參數調校是指在機器學習模型訓練過程中,調整模型外部的可配置參數(超參數),以達到最佳模型效能的過程。與模型內部透過學習得到的參數不同,超參數需要在訓練前設定,並透過多次實驗來尋找最佳組合。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/hyperparameter-tuning 快查頁:https://aiterms.tw/terms/hyperparameter-tuning 深度解說:https://aiterms.tw/learning/what-is-hyperparameter-tuning --- # 超級對齊(Superalignment) 超級對齊旨在確保遠超人類智慧的AI系統,其目標與人類價值觀對齊,避免潛在的失控風險。 ## 完整說明 超級對齊是指確保超級智能AI系統的目標、價值觀和行為與人類的意圖和利益對齊。由於超級智能AI的能力遠超人類,一旦其目標與人類不一致,可能導致難以預測甚至災難性的後果。超級對齊旨在解決這個潛在的控制問題,確保AI系統始終服務於人類。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/superalignment 快查頁:https://aiterms.tw/terms/superalignment 深度解說:https://aiterms.tw/learning/what-is-superalignment --- # 超解析度重建(Super-resolution) 超解析度重建是一種電腦視覺技術,旨在從低解析度影像重建出高解析度影像,提升影像的清晰度和細節。 ## 完整說明 超解析度重建 (Super-resolution, SR) 是一種影像處理技術,旨在從一個或多個低解析度 (Low-Resolution, LR) 影像中重建出一個高解析度 (High-Resolution, HR) 影像。其目標是提升影像的視覺品質,恢復遺失的細節,並增加影像的解析度。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/super-resolution 快查頁:https://aiterms.tw/terms/super-resolution 深度解說:https://aiterms.tw/learning/what-is-super-resolution --- # 路徑語言模型(PaLM) PaLM (Pathways Language Model) 是 Google 開發的大型語言模型,以其卓越的推理能力和多語言處理能力著稱。 ## 完整說明 PaLM (Pathways Language Model) 是 Google AI 開發的一種基於 Transformer 架構的大型語言模型。它利用 Pathways 系統進行訓練,該系統允許模型跨多個 TPU (Tensor Processing Unit) 進行高效擴展。PaLM 以其在各種語言任務中的卓越表現而聞名,包括推理、程式碼生成和多語言理解。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/palm 快查頁:https://aiterms.tw/terms/palm 深度解說:https://aiterms.tw/learning/what-is-palm --- # 轉換器架構(Transformer) 完全基於 Attention 機制的架構,不用 RNN 的循環結構,能平行處理整個序列 ## 完整說明 轉換器架構是一種基於自注意力機制的深度學習模型架構,最初被設計用於機器翻譯,但現在已廣泛應用於自然語言處理的各個領域,如文本分類、文本生成和問答系統。轉換器架構的核心是自注意力機制,它允許模型關注輸入序列中不同位置之間的關係,從而更好地理解上下文。在 iPAS 考試中,了解轉換器架構的基本原理和應用是重要的。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 轉換器架構中的注意力機制如何運作? 注意力機制的核心是計算查詢(Query)、鍵(Key)和值(Value)之間的相似度,並將相似度轉換為權重,然後將權重應用於值,得到加權和,作為最終的注意力輸出。這個過程可以理解為模型在序列中尋找與當前元素最相關的其他元素,並將這些元素的資訊整合到當前元素的表示中。 ### 多頭注意力機制的作用是什麼? 多頭注意力機制允許模型在不同的子空間中學習不同的注意力模式,從而捕捉序列中不同方面的依賴關係。每個頭都使用不同的線性轉換來處理查詢、鍵和值,然後將所有頭的輸出拼接起來,得到最終的注意力輸出。這可以提高模型的表達能力和泛化能力。 ### 如何解決轉換器架構計算複雜度高的問題? 可以採用多種方法來降低轉換器架構的計算複雜度,例如使用稀疏注意力機制、線性注意力機制、或者使用知識蒸餾等技術。稀疏注意力機制只計算部分元素之間的注意力權重,線性注意力機制通過線性轉換降低計算複雜度,知識蒸餾則將大型模型的知識轉移到小型模型中。 --- 來源:https://aiterms.tw/terms/transformer 快查頁:https://aiterms.tw/terms/transformer 深度解說:https://aiterms.tw/learning/what-is-transformer --- # 逆向運動學(Inverse Kinematics) 逆向運動學是計算機器人或骨骼動畫等系統中,為了達到特定末端效應器位置和姿態,各關節需要旋轉的角度。 ## 完整說明 逆向運動學 (Inverse Kinematics, IK) 是一種計算方法,用於確定機器人手臂或其他多關節系統的關節角度,以實現特定的末端執行器(例如機器人手臂的末端)的位置和姿態。與正向運動學相反,正向運動學是根據已知的關節角度計算末端執行器的位置和姿態,而逆向運動學則是反過來計算。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/inverse-kinematics 快查頁:https://aiterms.tw/terms/inverse-kinematics 深度解說:https://aiterms.tw/learning/what-is-inverse-kinematics --- # 通用人工智慧(Artificial General Intelligence) 通用人工智慧(AGI)是指具備與人類同等或超越人類的智慧,能夠理解、學習、適應並在任何智力任務中表現出色的AI系統。 ## 完整說明 通用人工智慧(AGI)代表著人工智慧發展的下一個重大里程碑。AGI系統不僅僅擅長於特定任務,而是具備廣泛的認知能力,能夠理解、學習、適應並在任何智力任務中表現出色的AI系統。AGI的目標是創造出真正具有思考能力和解決問題能力的機器,其智慧水平與人類相當甚至超越人類。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/artificial-general-intelligence 快查頁:https://aiterms.tw/terms/artificial-general-intelligence 深度解說:https://aiterms.tw/learning/what-is-artificial-general-intelligence --- # 連體神經網路(Siamese Network) 連體神經網路是一種包含兩個或多個共享相同權重的相同神經網路的架構,用於比較輸入之間的相似性或關係。 ## 完整說明 連體神經網路是一種特殊的深度學習架構,它包含兩個或多個完全相同的神經網路,這些網路共享相同的權重和架構。這些網路並行處理不同的輸入,並將它們的輸出進行比較,以衡量輸入之間的相似性或關係。其核心目標是學習一個能夠有效區分相似和不相似輸入的嵌入空間。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/siamese-network 快查頁:https://aiterms.tw/terms/siamese-network 深度解說:https://aiterms.tw/learning/what-is-siamese-network --- # 運動規劃(Motion Planning) 運動規劃是計算機科學和機器人學中的一個領域,旨在為機器人或其他代理找到從起點到終點的可行路徑,同時避開障礙物並滿足特定約束。 ## 完整說明 運動規劃是機器人學和人工智能的一個關鍵領域,其目標是為機器人或其他自主代理生成無碰撞的路徑,使其能夠從起始位置移動到目標位置。運動規劃算法需要考慮機器人的幾何形狀、環境中的障礙物以及機器人的運動學和動力學約束。成功的運動規劃對於機器人在複雜環境中執行任務至關重要。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/motion-planning 快查頁:https://aiterms.tw/terms/motion-planning 深度解說:https://aiterms.tw/learning/what-is-motion-planning --- # 運算最佳訓練(Compute Optimal Training) 運算最佳訓練旨在於給定運算資源下,最大化模型效能。它涉及調整模型大小、資料集大小和訓練步驟,以達到最佳效率。 ## 完整說明 運算最佳訓練是一種模型訓練策略,其目標是在給定的運算預算下,最大化模型的效能。這通常涉及仔細平衡模型的大小、訓練資料集的大小以及訓練的步驟數。透過最佳化這些因素,可以更有效地利用運算資源,並訓練出效能更佳的模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/compute-optimal-training 快查頁:https://aiterms.tw/terms/compute-optimal-training 深度解說:https://aiterms.tw/learning/what-is-compute-optimal-training --- # 過擬合(Overfitting) 過擬合指模型在訓練集表現優異,卻因過度學習雜訊而失去對新資料的泛化能力 ## 完整說明 過擬合是一種機器學習模型在訓練資料上表現良好,但在未見過的測試資料上表現不佳的現象。這通常發生在模型過於複雜,學習了訓練資料中的雜訊和特例,而沒有學到資料的普遍規律。為了避免過擬合,可以採用正則化、交叉驗證、增加訓練資料量等方法。在 iPAS 考試中,理解過擬合的原因和避免方法是重要的。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 過擬合和欠擬合有什麼不同? 過擬合是模型在訓練資料上表現好,但在新資料上表現差,因為它學習了噪音。欠擬合則是模型在訓練和新資料上都表現不好,因為它沒有學到足夠的資訊。過擬合像是死記硬背,欠擬合則像是根本沒讀書。 ### 什麼時候應該使用過擬合? 一般來說,應該避免過擬合。但在某些極端情況下,例如比賽或特定環境,訓練資料與實際資料非常相似,且不考慮泛化能力,可以容忍一定程度的過擬合,以追求在特定資料上的最佳表現。 ### 初學者學習過擬合最常見的誤解是什麼? 初學者常誤以為訓練集準確率高就代表模型好,忽略了泛化能力的重要性。他們需要理解,機器學習的目的是建立一個能夠在新資料上做出準確預測的模型,而不僅僅是在訓練資料上表現出色。 --- 來源:https://aiterms.tw/terms/overfitting-1 快查頁:https://aiterms.tw/terms/overfitting-1 深度解說:https://aiterms.tw/learning/what-is-overfitting-1 --- # 過擬合(Overfitting) 過擬合指模型過度記憶訓練資料的細節與雜訊,導致在未見過的新資料上預測表現大幅下滑 ## 完整說明 過擬合是一種機器學習模型訓練過程中出現的現象,指的是模型過度學習訓練資料中的雜訊或異常值,導致在訓練集上表現極佳,但在未見過的測試集上表現較差。這通常是因為模型過於複雜,例如使用高次多項式擬合簡單資料。在 iPAS 考試中,理解過擬合的成因以及如何透過正則化、交叉驗證或增加訓練資料來解決此問題至關重要。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 8%,屬於高頻考範圍。 常見出題方向: - 類神經網路架構(佔 40%) - 模型訓練與評估(佔 35%) - 防止過擬合的策略(佔 25%) ## 常見問題 ### 過擬合和欠擬合有什麼不同? 過擬合是指模型在訓練資料上表現很好,但在測試資料上表現很差;欠擬合是指模型在訓練資料和測試資料上都表現很差。過擬合通常是因為模型過於複雜,學習了訓練資料中的雜訊;欠擬合通常是因為模型過於簡單,無法捕捉資料中的重要特徵。 ### 什麼時候應該使用過擬合? 一般來說,我們應該避免過擬合。但在某些特殊情況下,例如在資料量非常有限的情況下,或者在競賽中只關心特定測試集的表現時,可以適當允許模型過擬合。但是,需要謹慎評估這種做法的風險,並採取相應的措施來控制過擬合的程度。 ### 初學者學習過擬合最常見的誤解是什麼? 初學者最常見的誤解是認為訓練集準確率越高越好。他們往往會過度追求在訓練集上的完美表現,而忽略了模型的泛化能力。實際上,一個好的模型應該在訓練集和測試集上都表現良好,而不是只在訓練集上表現出色。 --- 來源:https://aiterms.tw/terms/overfitting 快查頁:https://aiterms.tw/terms/overfitting 深度解說:https://aiterms.tw/learning/what-is-overfitting --- # 適配器模組(Adapter) 適配器模組是一種輕量級的模型微調方法,透過在預訓練模型中插入少量可訓練參數,以適應特定任務,同時保持原始模型參數凍結。 ## 完整說明 適配器模組是一種參數高效的遷移學習技術,它在預訓練模型中插入小型、可訓練的模組(稱為適配器),並凍結原始模型的大部分參數。這種方法允許模型快速適應新任務,同時避免了從頭開始訓練或微調整個模型的巨大計算成本。適配器通常插入在Transformer層之間或內部。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/adapter 快查頁:https://aiterms.tw/terms/adapter 深度解說:https://aiterms.tw/learning/what-is-adapter --- # 遮罩區域卷積網路(Mask R-CNN) Mask R-CNN是一種深度學習模型,用於物件偵測、實例分割和人體姿勢估計。它擴展了Faster R-CNN,增加了預測每個物件像素級別遮罩的分支。 ## 完整說明 Mask R-CNN (遮罩區域卷積網路) 是一種基於深度學習的實例分割模型,它擴展了 Faster R-CNN 的功能,不僅能偵測圖像中的物件,還能為每個偵測到的物件生成像素級別的遮罩。這使得 Mask R-CNN 能夠精確地分割圖像中的不同實例,並執行如人體姿勢估計等任務。它在電腦視覺領域具有廣泛的應用。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/mask-r-cnn 快查頁:https://aiterms.tw/terms/mask-r-cnn 深度解說:https://aiterms.tw/learning/what-is-mask-r-cnn --- # 遮蔽語言模型(Masked Language Model) 遮蔽語言模型(MLM)是一種自監督學習方法,隨機遮蔽輸入文本的部分詞語,並訓練模型預測這些被遮蔽的詞語。 ## 完整說明 遮蔽語言模型(Masked Language Model,MLM)是一種自監督學習技術,用於訓練語言模型。它通過隨機遮蔽輸入文本中的部分詞語,並訓練模型預測這些被遮蔽的詞語,從而使模型能夠學習到上下文語義資訊。MLM是BERT等預訓練語言模型的關鍵組成部分。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/masked-language-model 快查頁:https://aiterms.tw/terms/masked-language-model 深度解說:https://aiterms.tw/learning/what-is-masked-language-model --- # 遷移學習(Transfer Learning) 遷移學習是將已在大數據集習得的知識,轉移應用至小數據集的新任務,藉此加速模型訓練 ## 完整說明 遷移學習是一種機器學習方法,用於將在一個任務上學習到的知識應用於另一個相關的任務。它能夠利用已訓練模型的知識,加速新任務的模型訓練,並提升模型在新任務上的效能,尤其是在目標任務資料量較少的情況下。在 iPAS 考試中,遷移學習是重要的概念,需要理解其原理、應用場景以及優缺點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 遷移學習可以解決所有機器學習問題嗎? 遷移學習並非萬能。當源任務和目標任務之間沒有足夠的相關性時,遷移學習可能無法帶來顯著的性能提升,甚至可能產生負遷移。因此,在應用遷移學習之前,需要仔細評估任務之間的相關性。 ### 微調(Fine-tuning)是遷移學習中必須的步驟嗎? 微調並非絕對必要,但通常是提升模型性能的關鍵步驟。如果不進行微調,模型可能無法充分適應目標任務的數據特徵。然而,過度微調可能會導致過擬合,因此需要謹慎調整微調的參數。 ### 遷移學習是否適用於所有類型的數據? 遷移學習可以應用於各種數據類型,包括圖像、文本、語音等。但需要注意的是,不同類型的數據可能需要使用不同的預訓練模型和微調策略。例如,對於圖像數據,可以使用在 ImageNet 上預訓練的 CNN 模型;對於文本數據,可以使用在 Wikipedia 上預訓練的 Transformer 模型。 --- 來源:https://aiterms.tw/terms/transfer-learning 快查頁:https://aiterms.tw/terms/transfer-learning 深度解說:https://aiterms.tw/learning/what-is-transfer-learning --- # 邊界框偵測(Bounding Box) 邊界框偵測是一種電腦視覺技術,用於在影像或影片中定位和識別物體,並使用矩形框標示出物體的位置。 ## 完整說明 邊界框偵測 (Bounding Box Detection) 是一種電腦視覺技術,旨在影像或影片中識別和定位物體。它通過在物體周圍繪製矩形框(邊界框)來表示物體的位置和範圍。邊界框通常由左上角和右下角的座標定義。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bounding-box 快查頁:https://aiterms.tw/terms/bounding-box 深度解說:https://aiterms.tw/learning/what-is-bounding-box --- # 邊緣人工智慧(Edge AI) 邊緣人工智慧是指在靠近資料來源的邊緣設備上執行AI運算,而非在雲端伺服器上。可降低延遲、節省頻寬、保護隱私。 ## 完整說明 邊緣人工智慧是一種將人工智慧運算推向網路邊緣的技術。它指的是在靠近資料來源的設備上(例如,手機、感測器、嵌入式系統)執行AI模型,而不是將資料傳輸到雲端伺服器進行處理。邊緣AI能夠降低延遲、節省頻寬、提高安全性,常見應用包括自動駕駛、智慧城市和工業自動化。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/edge-ai 快查頁:https://aiterms.tw/terms/edge-ai 深度解說:https://aiterms.tw/learning/what-is-edge-ai --- # 邏輯迴歸(Logistic Regression) 邏輯迴歸是一種廣義線性模型,用於預測二元或多元分類結果的機率。它使用 Sigmoid 函數將線性組合轉換為機率值,並透過最大似然估計來訓練模型。 ## 完整說明 邏輯迴歸是一種廣義線性模型,主要用於解決分類問題,尤其是二元分類問題。它預測事件發生的機率,而非直接預測類別。邏輯迴歸使用 Sigmoid 函數(或 Logistic 函數)將線性組合的輸入轉換為介於 0 和 1 之間的機率值,並透過最大似然估計等方法來訓練模型,找到最佳的模型參數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/logistic-regression 快查頁:https://aiterms.tw/terms/logistic-regression 深度解說:https://aiterms.tw/learning/what-is-logistic-regression --- # 醫療影像分析(Medical Image Analysis) 醫療影像分析利用AI技術,自動或半自動地分析醫學影像,輔助醫生進行疾病診斷、病情監測和治療規劃,提高診斷效率和準確性。 ## 完整說明 醫療影像分析是指利用人工智慧(AI)技術,特別是深度學習,對醫學影像(如X光、CT、MRI、超音波等)進行自動或半自動的分析。其目標是輔助醫生進行疾病診斷、病情監測、治療規劃和預後評估,從而提高診斷效率、準確性和一致性,並減少人為誤差。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/medical-image-analysis 快查頁:https://aiterms.tw/terms/medical-image-analysis 深度解說:https://aiterms.tw/learning/what-is-medical-image-analysis --- # 重排序模型(Reranking) 重排序模型是一種在初步檢索後,對候選結果進行重新排序的技術,旨在提升檢索結果的相關性和準確性,通常使用更複雜的模型。 ## 完整說明 重排序模型 (Reranking) 是一種資訊檢索技術,它在初步檢索階段後,對檢索到的候選結果進行重新排序。其目的是利用更複雜的模型和更精細的特徵,提升檢索結果的相關性和準確性。重排序模型通常應用於搜尋引擎、推薦系統等場景,以改善使用者體驗。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/reranking 快查頁:https://aiterms.tw/terms/reranking 深度解說:https://aiterms.tw/learning/what-is-reranking --- # 量化低秩適配(QLoRA) QLoRA是LoRA的改進版,使用4位量化技術壓縮預訓練模型,進一步降低記憶體需求,實現在消費級硬體上微調大型模型。 ## 完整說明 QLoRA (Quantized Low-Rank Adaptation) 是LoRA的進階版本,它結合了量化技術和低秩適配。QLoRA使用4位量化來壓縮預訓練模型的權重,從而大幅降低記憶體需求,使得在消費級硬體上微調大型模型成為可能。同時,QLoRA保留了LoRA的參數高效性,只需要訓練少量的參數。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/qlora 快查頁:https://aiterms.tw/terms/qlora 深度解說:https://aiterms.tw/learning/what-is-qlora --- # 金吉拉縮放(Chinchilla Scaling) 金吉拉縮放是一種模型縮放法則,旨在透過調整模型大小和訓練資料量,以達到最佳的計算效率,避免過度訓練或訓練不足。 ## 完整說明 金吉拉縮放法則是一種用於訓練大型語言模型的策略,它強調在給定的計算預算下,同時調整模型大小(參數數量)和訓練資料量,以最大化模型性能。與僅僅增加模型大小相比,金吉拉縮放法則建議在減少模型大小的同時,大幅增加訓練資料量,從而提高訓練效率和模型泛化能力。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/chinchilla-scaling 快查頁:https://aiterms.tw/terms/chinchilla-scaling 深度解說:https://aiterms.tw/learning/what-is-chinchilla-scaling --- # 金絲雀部署(Canary Deployment) 金絲雀部署是一種逐步將新版本軟體或模型發布到一小部分使用者的方法,用於在全面部署之前檢測潛在問題。降低風險,確保穩定性。 ## 完整說明 金絲雀部署是一種降低風險的部署策略,它逐步將新版本軟體或機器學習模型發布到一小部分使用者(金絲雀),以監控其效能和穩定性。如果金絲雀版本表現良好,則逐漸將其推廣到更多使用者,最終取代舊版本。常見應用包括模型更新、應用程式升級和基礎設施變更。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/canary-deployment 快查頁:https://aiterms.tw/terms/canary-deployment 深度解說:https://aiterms.tw/learning/what-is-canary-deployment --- # 金融情緒分析(Sentiment Analysis for Finance) 金融情緒分析利用自然語言處理技術,分析新聞、社群媒體等文本數據,提取市場情緒,用於預測股價、風險管理和交易策略。 ## 完整說明 金融情緒分析是一種利用自然語言處理(NLP)技術,從各種文本來源(例如新聞文章、社群媒體貼文、公司財報)中提取和量化市場情緒的過程。其目的是了解投資者和市場參與者對特定資產、公司或整體經濟的看法,並將這些情緒資訊應用於投資決策、風險管理和交易策略。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/sentiment-analysis-for-finance 快查頁:https://aiterms.tw/terms/sentiment-analysis-for-finance 深度解說:https://aiterms.tw/learning/what-is-sentiment-analysis-for-finance --- # 錨框(Anchor Box) 錨框(Anchor Box)是在目標檢測中預先定義的一系列具有不同大小和長寬比的矩形框,用於在圖像中生成候選區域,以便模型進行目標分類和邊界框回歸。 ## 完整說明 錨框(Anchor Box)是在目標檢測算法中,特別是在基於區域提議的算法中(如Faster R-CNN)使用的一種技術。它是在圖像上預先定義的一組具有不同大小和長寬比的矩形框。這些錨框作為候選區域,模型會對它們進行分類(判斷是否包含目標)和邊界框回歸(調整錨框的位置和大小,使其更準確地包圍目標)。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/anchor-box 快查頁:https://aiterms.tw/terms/anchor-box 深度解說:https://aiterms.tw/learning/what-is-anchor-box --- # 長短期記憶網路(Long Short-Term Memory) 長短期記憶網路是一種改良的循環神經網路,透過門控機制來克服傳統 RNN 在長序列中容易遺忘的缺陷 ## 完整說明 長短期記憶網路(LSTM)是一種特殊的循環神經網路(RNN)架構,用於處理和預測序列資料。它能夠有效地捕捉長期依賴關係,克服傳統 RNN 在處理長序列時的梯度消失問題。LSTM 透過記憶單元和閘門機制(輸入閘、遺忘閘、輸出閘)來控制資訊的流動,使其能夠選擇性地記住或遺忘過去的資訊。 ## 常見問題 ### LSTM 模型訓練時,Batch Size 的大小如何影響訓練效果? Batch Size 影響梯度下降的穩定性和訓練速度。較小的 Batch Size 梯度更新更頻繁,可能更精確,但更耗時且容易震盪;較大的 Batch Size 訓練速度更快,但可能陷入局部最小值。通常需要根據資料集大小和硬體資源調整。 ### LSTM 模型中,Hidden State 的維度如何選擇? Hidden State 的維度決定了模型能儲存多少資訊。維度太小可能導致資訊丟失,維度太大則增加計算複雜度,容易過擬合。可以透過交叉驗證,選擇在驗證集上表現最佳的維度。 ### 如何避免 LSTM 模型在訓練過程中出現過擬合? 避免 LSTM 過擬合的方法包括:增加訓練資料量、使用 Dropout 正則化、使用 L1/L2 正則化、提前停止訓練 (Early Stopping) 等。 Dropout 隨機丟棄部分神經元,L1/L2 正則化限制權重的大小,Early Stopping 監控驗證集上的性能,及早停止訓練。 --- 來源:https://aiterms.tw/terms/long-short-term-memory 快查頁:https://aiterms.tw/terms/long-short-term-memory 深度解說:https://aiterms.tw/learning/what-is-long-short-term-memory --- # 閃電注意力機制(Flash Attention) 閃電注意力機制是一種優化注意力計算的技術,透過重新排序計算步驟和利用硬體加速,大幅提升注意力計算的速度和記憶體效率。 ## 完整說明 閃電注意力機制是一種用於加速注意力計算的演算法。它透過重新排序計算步驟,並利用硬體加速(例如 GPU 的快取和並行處理),大幅提升注意力計算的速度和記憶體效率。閃電注意力機制尤其適用於處理長序列,並能降低訓練大型語言模型的成本。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/flash-attention 快查頁:https://aiterms.tw/terms/flash-attention 深度解說:https://aiterms.tw/learning/what-is-flash-attention --- # 開放神經網路交換(ONNX) ONNX 是一種開放標準,用於表示機器學習模型,允許模型在不同框架之間互操作,簡化模型部署流程。 ## 完整說明 ONNX (Open Neural Network Exchange) 是一種開放標準,用於表示機器學習模型。它能夠讓模型在不同的深度學習框架之間進行轉換和互操作,簡化模型部署流程,提高模型的可移植性。常見應用包括在不同硬體平台和雲端服務上部署模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/onnx 快查頁:https://aiterms.tw/terms/onnx 深度解說:https://aiterms.tw/learning/what-is-onnx --- # 閘控循環單元(Gated Recurrent Unit) 閘控循環單元(GRU)是一種循環神經網路(RNN)的變體,旨在解決傳統RNN的梯度消失問題,更有效地捕捉長期依賴關係。 ## 完整說明 閘控循環單元(GRU)是一種循環神經網路(RNN)的變體,透過引入更新閘(update gate)和重置閘(reset gate)來控制信息的流動。這些閘門機制允許GRU選擇性地記住或忘記過去的信息,從而更有效地捕捉序列中的長期依賴關係,並減輕梯度消失問題。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/gated-recurrent-unit 快查頁:https://aiterms.tw/terms/gated-recurrent-unit 深度解說:https://aiterms.tw/learning/what-is-gated-recurrent-unit --- # 關係抽取(Relation Extraction) 關係抽取旨在自動識別文本中實體之間的語義關係,例如「出生於」或「工作於」,是知識圖譜構建的關鍵技術。 ## 完整說明 關係抽取(Relation Extraction, RE)是自然語言處理中的一項重要任務,旨在從非結構化的文本中自動識別並提取實體之間的語義關係。它將文本中的實體對及其關係抽取出來,形成結構化的知識,是構建知識圖譜、問答系統和信息檢索等應用的關鍵技術。關係抽取通常涉及識別實體、判斷實體之間是否存在關係,以及確定關係的類型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/relation-extraction 快查頁:https://aiterms.tw/terms/relation-extraction 深度解說:https://aiterms.tw/learning/what-is-relation-extraction --- # 降維處理(Dimensionality Reduction) 降維處理旨在減少資料集的特徵數量,同時保留重要資訊,以簡化模型、加速運算並避免維度災難。 ## 完整說明 降維處理是一種機器學習技術,用於減少資料集中變數(或特徵)的數量。它透過識別並移除冗餘或不相關的特徵,同時保留資料集中的重要資訊。降維可以簡化模型、加速運算、改善模型效能,並避免維度災難,尤其是在處理高維度資料時。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/dimensionality-reduction 快查頁:https://aiterms.tw/terms/dimensionality-reduction 深度解說:https://aiterms.tw/learning/what-is-dimensionality-reduction --- # 隨機丟棄(Dropout) 隨機丟棄是一種訓練技巧,透過隨機關閉部分神經元,避免網路過度依賴單一路徑,提升模型的泛化能力 ## 完整說明 隨機丟棄(Dropout)是一種正則化技術,用於防止深度學習模型過擬合。在訓練過程中,它會隨機地將神經網路中的部分神經元暫時關閉,迫使網路學習更具魯棒性的特徵表示。Dropout 能夠有效地減少神經元之間的共適應性,提升模型的泛化能力。在 iPAS 考試中,Dropout 的原理和應用是需要掌握的重點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 3%,屬於未分類考範圍。 ## 常見問題 ### 隨機丟棄如何影響模型的訓練速度? 隨機丟棄會略微增加訓練時間,因為每次迭代都需要處理一個簡化的網路。然而,由於它能有效防止過度擬合,因此可以更快地達到目標準確率,從而縮短整體訓練時間。 ### 丟棄率 *p* 應該如何選擇? 丟棄率 *p* 的選擇取決於具體的應用場景和模型結構。通常,建議從 0.2 到 0.5 之間開始嘗試,並根據驗證數據上的表現進行調整。對於較大的網路,可以使用較高的丟棄率。 ### 隨機丟棄是否適用於卷積神經網路(CNN)? 是的,隨機丟棄也適用於卷積神經網路。在 CNN 中,Dropout 通常應用於全連接層,以防止過度擬合。也可以在卷積層之後使用,但效果可能不如全連接層明顯。 --- 來源:https://aiterms.tw/terms/dropout 快查頁:https://aiterms.tw/terms/dropout 深度解說:https://aiterms.tw/learning/what-is-dropout --- # 隨機搜尋(Random Search) 隨機搜尋是一種超參數最佳化方法,它在預定義的超參數空間中隨機選擇參數組合,並評估其性能,以找到最佳的超參數配置。 ## 完整說明 隨機搜尋是一種簡單但有效的超參數最佳化技術。它在預先定義的超參數空間中隨機抽樣參數組合,然後使用驗證集評估每個組合的性能。與網格搜尋不同,隨機搜尋不會窮舉所有可能的組合,因此在大型超參數空間中更有效率。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/random-search 快查頁:https://aiterms.tw/terms/random-search 深度解說:https://aiterms.tw/learning/what-is-random-search --- # 隨機梯度下降(Stochastic Gradient Descent) 隨機梯度下降(SGD)是一種迭代優化算法,用於最小化目標函數。它每次迭代僅使用一個或少量樣本計算梯度,加速訓練過程,但可能導致收斂不穩定。 ## 完整說明 隨機梯度下降(Stochastic Gradient Descent, SGD)是一種廣泛應用於機器學習和深度學習中的迭代優化算法。它用於尋找使目標函數最小化的模型參數。與傳統梯度下降算法不同,SGD每次迭代僅使用一個或一小批(mini-batch)隨機選擇的訓練樣本來計算梯度,從而大大降低了計算成本,加速了訓練過程。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/stochastic-gradient-descent 快查頁:https://aiterms.tw/terms/stochastic-gradient-descent 深度解說:https://aiterms.tw/learning/what-is-stochastic-gradient-descent --- # 隨機森林(Random Forest) 隨機森林是一種集成學習演算法,透過多棵決策樹投票,以隨機子集資料和特徵進行訓練,提升預測準確性 ## 完整說明 隨機森林是一種集成學習方法,用於分類和回歸任務。它透過建立多個決策樹,並以投票或平均的方式進行預測,從而提高模型的準確性和穩定性。隨機森林在建立每棵樹時,會隨機選擇部分特徵和樣本,以增加樹的多樣性,降低過擬合的風險。它具有易於使用、對異常值不敏感等優點。 ## 常見問題 ### 隨機森林的樹的數量應該如何選擇? 樹的數量是隨機森林的一個重要參數。通常來說,樹的數量越多,模型的準確率越高,但計算成本也會增加。一個常用的方法是透過交叉驗證,觀察模型在驗證集上的表現,選擇一個既能保證準確率,又能控制計算成本的樹的數量。一般來說,數百棵樹通常能達到較好的效果。 ### 隨機森林如何處理缺失值? 隨機森林可以透過多種方法處理缺失值。一種常見的方法是用平均值或中位數填充缺失值。另一種更複雜的方法是使用其他特徵預測缺失值,例如,可以使用隨機森林本身來預測缺失值。許多機器學習函式庫都提供了內建的缺失值處理功能。 ### 隨機森林的特徵重要性是如何計算的? 隨機森林可以計算每個特徵的重要性,用於評估特徵對預測結果的影響程度。一種常用的方法是基於節點分裂的資訊增益,即計算每個特徵在所有樹的節點分裂中,對資訊增益的貢獻程度。貢獻越大,特徵的重要性越高。許多機器學習函式庫都提供了計算特徵重要性的功能。 --- 來源:https://aiterms.tw/terms/random-forest 快查頁:https://aiterms.tw/terms/random-forest 深度解說:https://aiterms.tw/learning/what-is-random-forest --- # 集成學習(Ensemble Learning) 集成學習透過結合多個弱學習器,建立一個強學習器,以提高模型的準確性和泛化能力,常見方法包括Bagging、Boosting和Stacking。 ## 完整說明 集成學習是一種機器學習技術,它透過結合多個弱學習器(例如,決策樹、支持向量機或神經網路),建立一個強學習器。集成學習的目標是提高模型的準確性和泛化能力,減少過擬合的風險。常見的集成學習方法包括Bagging、Boosting和Stacking。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/ensemble-learning 快查頁:https://aiterms.tw/terms/ensemble-learning 深度解說:https://aiterms.tw/learning/what-is-ensemble-learning --- # 集束搜尋(Beam Search) 集束搜尋是一種啟發式搜尋演算法,用於序列預測任務,它在每個時間步保留多個最有可能的候選序列(集束),而非僅僅選擇最佳選項。 ## 完整說明 集束搜尋是一種廣泛應用於序列生成任務的搜尋演算法,例如機器翻譯和文本摘要。它通過在每個解碼步驟中保留多個候選序列(稱為集束)來工作,從而探索更廣泛的可能輸出,並降低陷入局部最佳解的風險。集束大小決定了演算法的計算複雜度和搜索空間。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/beam-search 快查頁:https://aiterms.tw/terms/beam-search 深度解說:https://aiterms.tw/learning/what-is-beam-search --- # 雙向編碼器表示(BERT) BERT是一種基於Transformer架構的雙向編碼器模型,用於理解文本的語義和上下文,廣泛應用於自然語言理解任務。 ## 完整說明 BERT (Bidirectional Encoder Representations from Transformers) 是一種基於 Transformer 架構的雙向編碼器模型,用於理解文本的語義和上下文。它透過在大量未標記的文本資料上進行預訓練,學習語言的深層表示,能夠捕捉詞語之間的複雜關係。廣泛應用於自然語言理解任務,例如文本分類、問答系統和命名實體識別。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/bert 快查頁:https://aiterms.tw/terms/bert 深度解說:https://aiterms.tw/learning/what-is-bert --- # 零信任架構(Zero Trust Architecture) 零信任架構是一種安全模型,它不預設信任任何使用者或裝置,每次存取都必須驗證身分與授權 ## 完整說明 零信任架構(ZTA)是一種安全模型,基於「永不信任,始終驗證」的原則。它假設網路內外都存在潛在威脅,因此要求對所有使用者、設備和應用程式進行嚴格的身份驗證和授權,無論它們位於何處。ZTA 強調最小權限原則,只授予使用者完成任務所需的最低權限,並持續監控和分析網路流量,以檢測和響應異常行為。 ## 常見問題 ### 零信任架構是否可以完全取代防火牆? 零信任架構並不能完全取代防火牆,而是作為防火牆的補充。防火牆主要用於控制網路流量,而零信任架構則關注使用者和設備的身分驗證和授權。兩者可以共同工作,提供更全面的安全防禦。防火牆可以作為零信任架構中的一個組成部分,用於保護網路邊界。 ### 導入零信任架構需要多長時間? 導入零信任架構所需的時間取決於企業的規模、複雜性和現有的 IT 基礎設施。一個小型的企業可能需要幾個月的時間,而一個大型的企業可能需要一年或更長的時間。重要的是要制定一個明確的計劃,並逐步實施零信任原則。 ### 零信任架構是否適用於所有類型的組織? 零信任架構的原則適用於所有類型的組織,但具體的實施方式可能需要根據組織的特定需求和風險評估進行調整。即使是小型組織也可以從零信任架構中受益,例如通過實施多因素驗證和最小權限原則來提高安全性。 --- 來源:https://aiterms.tw/terms/zero-trust-architecture 快查頁:https://aiterms.tw/terms/zero-trust-architecture 深度解說:https://aiterms.tw/learning/what-is-zero-trust-architecture --- # 零樣本學習(Zero-shot Learning) 零樣本學習讓模型無需任何該類別的訓練範例,憑藉預訓練知識即可識別與處理未見過的類別 ## 完整說明 零樣本學習是一種機器學習方法,用於在沒有任何目標類別的訓練樣本下,直接對未見過的類別進行分類。它利用已知的類別資訊或輔助資訊(例如屬性描述或語義嵌入)來將知識從已見過的類別遷移到未見過的類別,從而實現泛化能力。在 iPAS 初級考試中,零樣本學習是機器學習基礎概念的一部分,理解其原理和應用場景有助於應試。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 2%,屬於未分類考範圍。 ## 常見問題 ### 零樣本學習和傳統的監督式學習有什麼不同? 監督式學習需要大量的標記數據來訓練模型,而零樣本學習則不需要任何訓練數據。監督式學習針對特定任務進行優化,泛化能力較弱,而零樣本學習則更注重利用已有的知識進行推理和泛化。簡單來說,一個需要老師教,一個自己看書學。 ### 零樣本學習模型的評估指標有哪些? 零樣本學習模型的評估指標與傳統的機器學習模型類似,包括準確率 (Accuracy)、召回率 (Recall)、F1 值 (F1-score) 等。但由於零樣本學習通常涉及未見過的類別,因此需要特別關注模型在新類別上的泛化能力。 ### 零樣本學習的未來發展趨勢是什麼? 未來零樣本學習的發展趨勢包括:更強大的預訓練模型、更有效的知識表示方法、更精準的任務描述方式以及更穩健的推理機制。此外,零樣本學習將會與其他機器學習方法相結合,例如少樣本學習、自監督學習等,以提高模型的性能和泛化能力。 --- 來源:https://aiterms.tw/terms/zero-shot-learning 快查頁:https://aiterms.tw/terms/zero-shot-learning 深度解說:https://aiterms.tw/learning/what-is-zero-shot-learning --- # 電子病歷人工智慧(Electronic Health Records AI) 電子病歷人工智慧 (EHR AI) 指的是利用人工智慧技術分析電子病歷 (EHR) 數據,以改善醫療照護、研究和管理的應用。 ## 完整說明 電子病歷人工智慧 (EHR AI) 是一種利用人工智慧 (AI) 技術,例如機器學習、深度學習和自然語言處理,來分析和理解電子病歷 (EHR) 數據的應用。EHR AI 旨在從 EHR 數據中提取有用的資訊,以改善臨床決策、研究、藥物開發、醫療管理和患者照護。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/electronic-health-records-ai 快查頁:https://aiterms.tw/terms/electronic-health-records-ai 深度解說:https://aiterms.tw/learning/what-is-electronic-health-records-ai --- # 電腦視覺(Computer Vision) 電腦視覺是一種人工智慧領域,旨在使電腦能夠像人類一樣「看」並理解圖像和影片,進而從中提取有用的資訊。 ## 完整說明 電腦視覺(Computer Vision)是人工智慧的一個重要分支,其目標是賦予電腦理解和解讀視覺世界的能力。它涉及開發能夠從數位圖像、影片和其他視覺輸入中獲取、處理、分析和理解資訊的演算法和系統。電腦視覺的發展背景是為了讓機器能夠像人類一樣,從視覺訊息中感知環境、識別物體、判斷情境,並做出相應的決策。 電腦視覺的核心概念包括圖像處理、特徵提取、模式識別和機器學習。它運用各種技術,例如卷積神經網路(CNN)、物件檢測、圖像分割等,來實現圖像識別、物件追蹤、場景理解等功能。 在 iPAS 初級 AI 基礎概論(L11402)考試中,電腦視覺是重點考察的知識領域之一。考生需要理解電腦視覺的基本概念、常用技術和應用場景,並能夠辨識相關的演算法和模型。掌握電腦視覺的原理和應用,對於理解人工智慧的整體架構和發展趨勢至關重要。近年來,電腦視覺技術在自動駕駛、醫療影像分析、智慧製造等領域的應用日益廣泛,因此在 iPAS 考試中佔有重要地位。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - 應用場景識別與分析(佔 45%) - 技術整合方案設計(佔 35%) - 實務應用案例判斷(佔 20%) ## 常見問題 ### 什麼是電腦視覺? 電腦視覺是人工智慧的一個分支,旨在讓電腦像人類一樣「看」並理解圖像和影片。它涉及圖像處理、物件檢測和場景理解,使機器能夠從視覺資訊中提取有意義的資訊。目標是讓電腦能夠自動地感知和理解視覺資訊,並做出相應的反應。 ### 電腦視覺在 iPAS 考試中怎麼考? iPAS 初級 AI 基礎概論考試中,電腦視覺是重點。考點包括基本概念、常用技術(圖像處理、特徵提取、物件檢測)、經典演算法(CNN、YOLO)和應用案例(自動駕駛、醫療影像)。考生需理解原理和應用,辨識演算法模型。 ### 電腦視覺和哪個術語最常被混淆? 電腦視覺常與圖像處理混淆。圖像處理側重於改善圖像質量,而電腦視覺更注重讓電腦理解圖像內容,提取語義資訊。電腦視覺使用圖像處理作為基礎,但目標是更高層次的理解和應用。 --- 來源:https://aiterms.tw/terms/computer-vision 快查頁:https://aiterms.tw/terms/computer-vision 深度解說:https://aiterms.tw/learning/what-is-computer-vision --- # 非極大值抑制(Non-Maximum Suppression) 非極大值抑制 (NMS) 是一種在物件偵測中用於消除重複框的技術,它會保留置信度最高的框,並抑制與之高度重疊的其他框。 ## 完整說明 非極大值抑制 (NMS) 是一種後處理技術,廣泛應用於物件偵測任務中。其主要目的是消除對同一物件的多個重複偵測框,只保留置信度最高的框。NMS 通過迭代地評估偵測框的置信度,並抑制與置信度最高的框有顯著重疊的其他框來實現這一點。重疊程度通常使用 Intersection over Union (IoU) 來衡量。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/non-maximum-suppression 快查頁:https://aiterms.tw/terms/non-maximum-suppression 深度解說:https://aiterms.tw/learning/what-is-non-maximum-suppression --- # 非監督式學習(Unsupervised Learning) 非監督式學習是機器學習方法,讓模型在沒有標籤的輸入資料中,自行探索隱藏的結構與模式 ## 完整說明 非監督式學習是一種機器學習範式,用於從未標記的資料中發現隱藏的結構或模式。它不依賴於預先定義的標籤或目標變數,而是通過演算法自動探索資料的內在特性,例如聚類、降維和異常偵測。在 iPAS 初級考試中,非監督式學習是機器學習的重要組成部分,掌握其常見演算法和應用是考核重點。 ## iPAS 考試出題分析 平均佔 AI 技術類考題 7%,屬於高頻考範圍。 常見出題方向: - 各類學習範式的定義與比較(佔 45%) - 適用場景判斷(佔 35%) - 演算法優缺點分析(佔 20%) ## 常見問題 ### 非監督式學習的結果一定準確嗎? 非監督式學習的結果並非絕對準確,因為它沒有標準答案可以參考。模型找到的模式可能只是資料中的一種潛在結構,不一定具有實際意義。因此,需要對結果進行驗證和評估,才能確定其可靠性。 ### 非監督式學習需要大量的資料嗎? 一般來說,非監督式學習需要較大量的資料才能夠找到有意義的模式。如果資料量太少,模型可能會過度擬合,導致結果不具有代表性。建議在資料量充足的情況下使用非監督式學習。 ### 非監督式學習可以用於預測嗎? 雖然非監督式學習的主要目標不是預測,但它可以作為預測的前置步驟。例如,可以使用聚類演算法將客戶分成不同的群組,然後針對每個群組建立預測模型。這樣可以提高預測的準確性。 --- 來源:https://aiterms.tw/terms/unsupervised-learning 快查頁:https://aiterms.tw/terms/unsupervised-learning 深度解說:https://aiterms.tw/learning/what-is-unsupervised-learning --- # 非結構化資料(Unstructured Data) 非結構化資料是指沒有預定義格式或組織方式的資料,難以直接儲存和分析,例如文字、圖像、音訊和影片。 ## 完整說明 非結構化資料是指沒有預定義格式或組織方式的資料,難以直接儲存和分析。其特點是資料內容多樣、格式不一致,需要特殊處理才能進行分析。非結構化資料的範例包括文字文件、圖像、音訊、影片、社交媒體貼文和電子郵件。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/unstructured-data 快查頁:https://aiterms.tw/terms/unstructured-data 深度解說:https://aiterms.tw/learning/what-is-unstructured-data --- # 音樂生成(Music Generation) 音樂生成是利用AI模型自動創作音樂,涵蓋旋律、和聲、節奏等多個方面,旨在模擬人類作曲過程。 ## 完整說明 音樂生成是指使用人工智慧(AI)技術自動創作音樂的過程。它涉及使用機器學習模型來學習音樂的結構、風格和規則,然後生成新的音樂作品。音樂生成系統可以生成各種不同風格的音樂,包括古典音樂、流行音樂、爵士樂和電子音樂。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/music-generation 快查頁:https://aiterms.tw/terms/music-generation 深度解說:https://aiterms.tw/learning/what-is-music-generation --- # 預測性分析(Predictive Analytics) 預測性分析利用統計建模、機器學習等技術,分析歷史數據以預測未來趨勢或事件發生的可能性,協助決策者制定更明智的策略。 ## 完整說明 預測性分析是一種利用歷史數據、統計建模、機器學習和資料探勘等技術,來預測未來事件或趨勢的分析方法。它旨在識別模式和關係,並將其應用於預測未來結果,從而幫助企業和組織做出更明智的決策,優化資源分配,並降低風險。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/predictive-analytics 快查頁:https://aiterms.tw/terms/predictive-analytics 深度解說:https://aiterms.tw/learning/what-is-predictive-analytics --- # 預熱訓練(Warmup) 預熱訓練是一種在模型訓練初期,逐步提高學習率的策略,旨在穩定訓練過程,避免初期梯度爆炸或震盪。 ## 完整說明 預熱訓練是一種在深度學習模型訓練初期使用的學習率調整策略。它並非直接使用設定好的學習率,而是從一個較小的學習率開始,逐步增加到目標學習率。這個過程有助於模型更穩定地學習,避免訓練初期出現梯度爆炸或震盪等問題,提升模型最終的效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/warmup 快查頁:https://aiterms.tw/terms/warmup 深度解說:https://aiterms.tw/learning/what-is-warmup --- # 頓悟學習(Grokking) 頓悟學習指模型在訓練初期泛化能力差,但經過長時間訓練後,突然展現出良好的泛化能力,如同頓悟一般。 ## 完整說明 頓悟學習(Grokking)是指機器學習模型在訓練的早期階段,對訓練數據的擬合程度很高,但在驗證數據上的表現很差(泛化能力差)。然而,經過長時間的訓練後,模型會突然展現出良好的泛化能力,如同突然頓悟一般,在驗證數據上的表現也大幅提升。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/grokking 快查頁:https://aiterms.tw/terms/grokking 深度解說:https://aiterms.tw/learning/what-is-grokking --- # 顯著性地圖(Saliency Map) 顯著性地圖是一種圖像處理技術,用於突出顯示圖像中最引人注目的區域。它通過計算每個像素的顯著性得分來實現,得分越高表示該區域越顯著。 ## 完整說明 顯著性地圖是一種視覺注意力模型,旨在模擬人類視覺系統如何快速識別圖像中最引人注目的區域。它通過計算圖像中每個像素或區域的顯著性得分來實現,得分越高表示該區域越有可能吸引人的注意力。顯著性地圖廣泛應用於電腦視覺、圖像處理和機器人學等領域。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/saliency-map 快查頁:https://aiterms.tw/terms/saliency-map 深度解說:https://aiterms.tw/learning/what-is-saliency-map --- # 風格轉換(Style Transfer) 風格轉換是一種使用人工智慧技術,將一張圖片的風格應用到另一張圖片的內容上的方法,創造出具有新風格的圖像。 ## 完整說明 風格轉換是一種電腦視覺技術,它使用人工智慧演算法,將一張圖片(風格圖片)的藝術風格應用到另一張圖片(內容圖片)的內容上,從而生成一張具有新風格的圖像。這種技術可以讓使用者輕鬆地將照片轉換成具有特定藝術風格的畫作。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/style-transfer 快查頁:https://aiterms.tw/terms/style-transfer 深度解說:https://aiterms.tw/learning/what-is-style-transfer --- # 餘弦相似度(Cosine Similarity) 餘弦相似度是一種衡量兩個非零向量之間夾角餘弦值的度量方法,常用於評估文本或資料點之間的相似程度。 ## 完整說明 餘弦相似度是一種衡量兩個非零向量之間夾角餘弦值的度量方法。它用於評估兩個向量在方向上的相似程度,而不考慮它們的大小。餘弦相似度的值介於 -1 和 1 之間,值越大表示向量越相似。常見應用包括文本相似度、推薦系統和圖像檢索。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/cosine-similarity 快查頁:https://aiterms.tw/terms/cosine-similarity 深度解說:https://aiterms.tw/learning/what-is-cosine-similarity --- # 馬可夫決策過程(Markov Decision Process) 馬可夫決策過程(MDP)是一種用於建模決策的數學框架,其中結果部分隨機,部分受決策者控制。它廣泛應用於強化學習。 ## 完整說明 馬可夫決策過程(Markov Decision Process, MDP)是一個離散時間隨機控制過程,為在狀態空間中進行決策建模提供數學框架。它包含狀態、動作、轉移機率和獎勵函數,用於描述智能體在環境中如何通過採取動作來改變狀態,並獲得相應的獎勵。MDP是強化學習的核心概念。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/markov-decision-process 快查頁:https://aiterms.tw/terms/markov-decision-process 深度解說:https://aiterms.tw/learning/what-is-markov-decision-process --- # 驗證資料集(Validation Set) 驗證資料集用於在模型訓練期間調整超參數和評估模型效能,以防止過擬合,並選擇最佳模型。 ## 完整說明 驗證資料集是在機器學習模型訓練過程中,用於評估模型效能並調整超參數的獨立資料集。它與訓練資料集和測試資料集不同,主要目的是在模型訓練期間提供一個不帶偏差的評估,幫助選擇最佳模型並防止過擬合。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/validation-set 快查頁:https://aiterms.tw/terms/validation-set 深度解說:https://aiterms.tw/learning/what-is-validation-set --- # 骰子損失函數(Dice Loss) Dice Loss是一種用於衡量兩個樣本之間相似度的損失函數,尤其適用於處理不平衡的資料集,常見於圖像分割任務。 ## 完整說明 Dice Loss基於Dice係數,用於評估兩個樣本之間的重疊程度。與交叉熵損失不同,Dice Loss更關注前景像素的預測準確性,因此在處理類別不平衡的圖像分割任務時表現更佳。它通過最大化預測結果和真實標籤之間的Dice係數來優化模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/dice-loss 快查頁:https://aiterms.tw/terms/dice-loss 深度解說:https://aiterms.tw/learning/what-is-dice-loss --- # 高效神經架構搜尋(Efficient Neural Architecture Search) 高效神經架構搜尋(Efficient NAS)旨在降低NAS的計算成本,通過架構共享、代理模型等技術加速搜尋過程,找到高性能的神經網路架構。 ## 完整說明 高效神經架構搜尋(Efficient NAS)是神經架構搜尋(NAS)的一個重要分支,旨在解決傳統NAS方法計算成本過高的問題。它通過各種技術,如架構共享、代理模型和提前停止等,來加速搜尋過程,並在有限的計算資源下找到高性能的神經網路架構。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/efficient-neural-architecture-search 快查頁:https://aiterms.tw/terms/efficient-neural-architecture-search 深度解說:https://aiterms.tw/learning/what-is-efficient-neural-architecture-search --- # 高效網路(EfficientNet) EfficientNet 是一系列由 Google 開發的卷積神經網路架構,旨在透過複合縮放方法,在準確度和效率之間取得最佳平衡。 ## 完整說明 EfficientNet 是一系列由 Google 開發的卷積神經網路架構,其核心思想是透過一種複合縮放方法,同時調整網路的深度、寬度和解析度,以在準確度和計算效率之間取得最佳平衡。這種方法旨在克服傳統縮放方法的局限性,並在各種電腦視覺任務中實現更高的效能。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/efficientnet 快查頁:https://aiterms.tw/terms/efficientnet 深度解說:https://aiterms.tw/learning/what-is-efficientnet --- # 黑箱模型(Black Box Model) 黑箱模型是指其內部運作機制對使用者而言不透明的模型,難以理解輸入與輸出之間的具體關係。 ## 完整說明 黑箱模型是指其內部結構和運算過程對使用者來說是不可見或難以理解的機器學習模型。使用者只能觀察到模型的輸入和輸出,而無法了解模型是如何做出決策的。深度學習模型,尤其是複雜的神經網路,通常被視為黑箱模型。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/black-box-model 快查頁:https://aiterms.tw/terms/black-box-model 深度解說:https://aiterms.tw/learning/what-is-black-box-model --- # 點擊率預測(Click-through Rate Prediction) 點擊率預測旨在預估使用者點擊特定廣告或連結的可能性,是數位廣告和推薦系統的核心技術。 ## 完整說明 點擊率預測 (CTR Prediction) 是一種預測模型,用於估算使用者點擊特定廣告、連結或推薦內容的機率。它在數位廣告、推薦系統和搜尋引擎等領域至關重要,能有效提升廣告效益、改善使用者體驗並增加收益。 ## 常見問題 ### undefined ### undefined ### undefined --- 來源:https://aiterms.tw/terms/click-through-rate-prediction 快查頁:https://aiterms.tw/terms/click-through-rate-prediction 深度解說:https://aiterms.tw/learning/what-is-click-through-rate-prediction