什麼是 特徵值(Eigenvalue)?
特徵值是線性變換作用於向量後,該向量長度縮放的比例。它描述了變換對特定方向向量的影響程度。
核心概念
特徵值是線性代數中描述線性變換的重要參數。它與特徵向量密切相關,共同揭示了線性變換的本質。一個矩陣可以有多個特徵值,每個特徵值對應一個或多個特徵向量。特徵值描述了線性變換在特徵向量方向上的縮放比例。如果特徵值為正,則表示向量在該方向上被拉伸;如果特徵值為負,則表示向量在該方向上被拉伸並反向;如果特徵值為0,則表示向量被壓縮到一個更低維度的空間。
運作原理
給定一個n×n的矩陣A,如果存在一個非零向量v和一個標量λ,使得以下等式成立:
Av = λv
那麼,λ就被稱為矩陣A的一個特徵值,v就被稱為對應於特徵值λ的特徵向量。
求解特徵值的步驟如下:
- 將等式Av = λv變形為(A - λI)v = 0,其中I是n×n的單位矩陣。
- 為了使等式(A - λI)v = 0有非零解,矩陣(A - λI)的行列式必須等於0,即det(A - λI) = 0。這個等式被稱為特徵方程。
- 解特徵方程,得到矩陣A的所有特徵值λ。
- 對於每個特徵值λ,解線性方程組(A - λI)v = 0,得到對應的特徵向量v。
實際應用
特徵值和特徵向量在許多領域都有廣泛的應用,包括:
- 主成分分析 (PCA): PCA是一種常用的降維技術,它通過計算資料的協方差矩陣的特徵值和特徵向量,找到資料中最重要的主成分。特徵值越大,對應的主成分包含的資訊越多。
- 圖像壓縮: 特徵值分解可以用於圖像壓縮。通過保留圖像矩陣中最大的幾個特徵值和對應的特徵向量,可以重建圖像,同時減少資料量。
- 網路分析: 在網路分析中,特徵向量可以用於計算節點的中心性。例如,PageRank演算法就是基於特徵向量的概念。
- 量子力學: 在量子力學中,特徵值代表了物理量(例如能量)的可能取值,而特徵向量代表了對應的狀態。
- 振動分析: 在工程領域,特徵值和特徵向量可以用於分析結構的振動特性。特徵值代表了結構的固有頻率,而特徵向量代表了結構的振動模式。
- 機器學習: 在機器學習中,特徵值和特徵向量被廣泛應用於降維、特徵提取和模型分析等方面。
常見誤區
- 誤區一:所有矩陣都有特徵值。 並非所有矩陣都有實數特徵值。只有方陣才有可能有特徵值,且特徵值可以是複數。對於實數矩陣,其特徵值可能是實數,也可能是複數。
- 誤區二:每個特徵值只對應一個特徵向量。 每個特徵值可能對應多個線性無關的特徵向量。這些特徵向量構成一個特徵空間。
- 誤區三:特徵向量必須是單位向量。 特徵向量的長度沒有限制,通常會將特徵向量歸一化為單位向量,以便於比較和計算。
- 誤區四:特徵值越大,對應的特徵向量越重要。 在某些應用中(例如PCA),特徵值的大小確實反映了對應特徵向量的重要性。但在其他應用中,特徵值的大小可能沒有直接的物理意義。
- 誤區五:特徵值分解和奇異值分解 (SVD) 是一樣的。 特徵值分解只能應用於方陣,而奇異值分解可以應用於任意矩陣。對於方陣,如果它是對稱矩陣,那麼它的特徵值分解和奇異值分解是等價的。
相關術語
常見問題
延伸學習
想看 特徵值 的完整影片教學?前往 美第奇 AI 學院