特徵向量(Eigenvector)
特徵向量是指在線性變換下,方向保持不變或僅反向的非零向量。它對應於特定的特徵值,代表變換的主要作用方向。
完整說明
核心概念
特徵向量是線性代數中描述線性變換的重要參數。它與特徵值密切相關,共同揭示了線性變換的本質。一個矩陣可以有多個特徵向量,每個特徵向量對應一個或多個特徵值。特徵向量描述了線性變換作用後,方向不變或僅反向的向量。特徵向量是線性變換的一個重要不變量。
運作原理
給定一個n×n的矩陣A,如果存在一個非零向量v和一個標量λ,使得以下等式成立:
Av = λv
那麼,v就被稱為對應於特徵值λ的特徵向量,λ就被稱為矩陣A的一個特徵值。
求解特徵向量的步驟如下:
- 計算矩陣A的特徵值λ。
- 對於每個特徵值λ,解線性方程組(A - λI)v = 0,其中I是n×n的單位矩陣。
- 線性方程組(A - λI)v = 0的解空間就是對應於特徵值λ的特徵空間。特徵空間中的任何非零向量都是對應於特徵值λ的特徵向量。
- 通常會將特徵向量歸一化為單位向量,以便於比較和計算。
實際應用
特徵向量在許多領域都有廣泛的應用,包括:
- 主成分分析 (PCA): PCA是一種常用的降維技術,它通過計算資料的協方差矩陣的特徵值和特徵向量,找到資料中最重要的主成分。特徵向量代表了主成分的方向。
- 圖像壓縮: 特徵向量可以用於圖像壓縮。通過保留圖像矩陣中最大的幾個特徵值和對應的特徵向量,可以重建圖像,同時減少資料量。特徵向量代表了圖像的主要結構。
- 網路分析: 在網路分析中,特徵向量可以用於計算節點的中心性。例如,PageRank演算法就是基於特徵向量的概念。特徵向量代表了節點的重要性。
- 量子力學: 在量子力學中,特徵向量代表了物理量(例如能量)的本徵態,而特徵值代表了對應的物理量的可能取值。
- 振動分析: 在工程領域,特徵向量可以用於分析結構的振動特性。特徵向量代表了結構的振動模式。
- 機器學習: 在機器學習中,特徵向量被廣泛應用於降維、特徵提取和模型分析等方面。
例如,在人臉辨識中,可以使用特徵臉 (Eigenfaces) 方法。該方法通過計算人臉圖像的協方差矩陣的特徵向量,得到一組代表人臉主要特徵的特徵臉。這些特徵臉可以用於人臉辨識和人臉重建。
常見誤區
- 誤區一:特徵向量是唯一的。 對於一個特定的特徵值,存在無窮多個特徵向量,它們構成一個特徵空間。特徵空間中的任何非零向量都是對應於該特徵值的特徵向量。
- 誤區二:特徵向量必須是單位向量。 特徵向量的長度沒有限制,通常會將特徵向量歸一化為單位向量,以便於比較和計算。歸一化後的特徵向量仍然是特徵向量。
- 誤區三:特徵向量一定是線性無關的。 對應於不同特徵值的特徵向量一定是線性無關的。但是,對應於同一個特徵值的特徵向量可能線性相關,也可能線性無關。線性無關的特徵向量構成特徵空間的基底。
- 誤區四:特徵向量可以隨意選擇。 特徵向量的選擇受到特徵值的限制。每個特徵向量必須對應於一個特定的特徵值。不能隨意選擇一個向量作為特徵向量。
- 誤區五:特徵向量分解和奇異值分解 (SVD) 是一樣的。 特徵值分解只能應用於方陣,而奇異值分解可以應用於任意矩陣。對於方陣,如果它是對稱矩陣,那麼它的特徵值分解和奇異值分解是等價的。奇異值分解得到的奇異向量與特徵向量的概念類似,但適用範圍更廣。
相關術語
常見問題
延伸學習
延伸學習
想看 特徵向量 的完整影片教學?前往 美第奇 AI 學院