什麼是 特徵向量(Eigenvector)?

特徵向量是指在線性變換下,方向保持不變或僅反向的非零向量。它對應於特定的特徵值,代表變換的主要作用方向。

核心概念

特徵向量是線性代數中描述線性變換的重要參數。它與特徵值密切相關,共同揭示了線性變換的本質。一個矩陣可以有多個特徵向量,每個特徵向量對應一個或多個特徵值。特徵向量描述了線性變換作用後,方向不變或僅反向的向量。特徵向量是線性變換的一個重要不變量。

運作原理

給定一個n×n的矩陣A,如果存在一個非零向量v和一個標量λ,使得以下等式成立:

Av = λv

那麼,v就被稱為對應於特徵值λ的特徵向量,λ就被稱為矩陣A的一個特徵值。

求解特徵向量的步驟如下:

  1. 計算矩陣A的特徵值λ。
  2. 對於每個特徵值λ,解線性方程組(A - λI)v = 0,其中I是n×n的單位矩陣。
  3. 線性方程組(A - λI)v = 0的解空間就是對應於特徵值λ的特徵空間。特徵空間中的任何非零向量都是對應於特徵值λ的特徵向量。
  4. 通常會將特徵向量歸一化為單位向量,以便於比較和計算。

實際應用

特徵向量在許多領域都有廣泛的應用,包括:

  • 主成分分析 (PCA): PCA是一種常用的降維技術,它通過計算資料的協方差矩陣的特徵值和特徵向量,找到資料中最重要的主成分。特徵向量代表了主成分的方向。
  • 圖像壓縮: 特徵向量可以用於圖像壓縮。通過保留圖像矩陣中最大的幾個特徵值和對應的特徵向量,可以重建圖像,同時減少資料量。特徵向量代表了圖像的主要結構。
  • 網路分析: 在網路分析中,特徵向量可以用於計算節點的中心性。例如,PageRank演算法就是基於特徵向量的概念。特徵向量代表了節點的重要性。
  • 量子力學: 在量子力學中,特徵向量代表了物理量(例如能量)的本徵態,而特徵值代表了對應的物理量的可能取值。
  • 振動分析: 在工程領域,特徵向量可以用於分析結構的振動特性。特徵向量代表了結構的振動模式。
  • 機器學習: 在機器學習中,特徵向量被廣泛應用於降維、特徵提取和模型分析等方面。

例如,在人臉辨識中,可以使用特徵臉 (Eigenfaces) 方法。該方法通過計算人臉圖像的協方差矩陣的特徵向量,得到一組代表人臉主要特徵的特徵臉。這些特徵臉可以用於人臉辨識和人臉重建。

常見誤區

  • 誤區一:特徵向量是唯一的。 對於一個特定的特徵值,存在無窮多個特徵向量,它們構成一個特徵空間。特徵空間中的任何非零向量都是對應於該特徵值的特徵向量。
  • 誤區二:特徵向量必須是單位向量。 特徵向量的長度沒有限制,通常會將特徵向量歸一化為單位向量,以便於比較和計算。歸一化後的特徵向量仍然是特徵向量。
  • 誤區三:特徵向量一定是線性無關的。 對應於不同特徵值的特徵向量一定是線性無關的。但是,對應於同一個特徵值的特徵向量可能線性相關,也可能線性無關。線性無關的特徵向量構成特徵空間的基底。
  • 誤區四:特徵向量可以隨意選擇。 特徵向量的選擇受到特徵值的限制。每個特徵向量必須對應於一個特定的特徵值。不能隨意選擇一個向量作為特徵向量。
  • 誤區五:特徵向量分解和奇異值分解 (SVD) 是一樣的。 特徵值分解只能應用於方陣,而奇異值分解可以應用於任意矩陣。對於方陣,如果它是對稱矩陣,那麼它的特徵值分解和奇異值分解是等價的。奇異值分解得到的奇異向量與特徵向量的概念類似,但適用範圍更廣。

相關術語

常見問題

← 回到 特徵向量 快查頁

延伸學習

想看 特徵向量 的完整影片教學?前往 美第奇 AI 學院