特徵值(Eigenvalue)

特徵值是線性變換作用於向量後,該向量長度縮放的比例。它描述了變換對特定方向向量的影響程度。

完整說明

核心概念

特徵值是線性代數中描述線性變換的重要參數。它與特徵向量密切相關,共同揭示了線性變換的本質。一個矩陣可以有多個特徵值,每個特徵值對應一個或多個特徵向量。特徵值描述了線性變換在特徵向量方向上的縮放比例。如果特徵值為正,則表示向量在該方向上被拉伸;如果特徵值為負,則表示向量在該方向上被拉伸並反向;如果特徵值為0,則表示向量被壓縮到一個更低維度的空間。

運作原理

給定一個n×n的矩陣A,如果存在一個非零向量v和一個標量λ,使得以下等式成立:

Av = λv

那麼,λ就被稱為矩陣A的一個特徵值,v就被稱為對應於特徵值λ的特徵向量。

求解特徵值的步驟如下:

  1. 將等式Av = λv變形為(A - λI)v = 0,其中I是n×n的單位矩陣。
  2. 為了使等式(A - λI)v = 0有非零解,矩陣(A - λI)的行列式必須等於0,即det(A - λI) = 0。這個等式被稱為特徵方程。
  3. 解特徵方程,得到矩陣A的所有特徵值λ。
  4. 對於每個特徵值λ,解線性方程組(A - λI)v = 0,得到對應的特徵向量v。

實際應用

特徵值和特徵向量在許多領域都有廣泛的應用,包括:

  • 主成分分析 (PCA): PCA是一種常用的降維技術,它通過計算資料的協方差矩陣的特徵值和特徵向量,找到資料中最重要的主成分。特徵值越大,對應的主成分包含的資訊越多。
  • 圖像壓縮: 特徵值分解可以用於圖像壓縮。通過保留圖像矩陣中最大的幾個特徵值和對應的特徵向量,可以重建圖像,同時減少資料量。
  • 網路分析: 在網路分析中,特徵向量可以用於計算節點的中心性。例如,PageRank演算法就是基於特徵向量的概念。
  • 量子力學: 在量子力學中,特徵值代表了物理量(例如能量)的可能取值,而特徵向量代表了對應的狀態。
  • 振動分析: 在工程領域,特徵值和特徵向量可以用於分析結構的振動特性。特徵值代表了結構的固有頻率,而特徵向量代表了結構的振動模式。
  • 機器學習: 在機器學習中,特徵值和特徵向量被廣泛應用於降維、特徵提取和模型分析等方面。

常見誤區

  • 誤區一:所有矩陣都有特徵值。 並非所有矩陣都有實數特徵值。只有方陣才有可能有特徵值,且特徵值可以是複數。對於實數矩陣,其特徵值可能是實數,也可能是複數。
  • 誤區二:每個特徵值只對應一個特徵向量。 每個特徵值可能對應多個線性無關的特徵向量。這些特徵向量構成一個特徵空間。
  • 誤區三:特徵向量必須是單位向量。 特徵向量的長度沒有限制,通常會將特徵向量歸一化為單位向量,以便於比較和計算。
  • 誤區四:特徵值越大,對應的特徵向量越重要。 在某些應用中(例如PCA),特徵值的大小確實反映了對應特徵向量的重要性。但在其他應用中,特徵值的大小可能沒有直接的物理意義。
  • 誤區五:特徵值分解和奇異值分解 (SVD) 是一樣的。 特徵值分解只能應用於方陣,而奇異值分解可以應用於任意矩陣。對於方陣,如果它是對稱矩陣,那麼它的特徵值分解和奇異值分解是等價的。

相關術語

常見問題

延伸學習

深入了解 特徵值 的完整運作原理

延伸學習

想看 特徵值 的完整影片教學?前往 美第奇 AI 學院