簡單的講 所有的矩陣都可以進行奇異值分解,不管其是否是方陣以及對稱矩陣。當所給的矩陣是對稱的方陣,A(T)=A,二者的結果是相同的。也就是說對稱矩陣的特徵值分解是所有奇異值分解的一個特例。
但是二者還是存在一些小的差異,奇異值分解需要對奇異值從大到小的排序,而且全部是大於等於零。
在應用程式層面上,訊號處理中常常遇到一些降維,主分量分析等等的處理需要用到奇異值分解。一般來講,奇異值分解應用的範圍比較廣泛。
比如說,對於一個零均值的訊號的自相關矩陣CX = X'X,對CX進行奇異值分解和特徵值分解,基本上是相似的,但還要注意的是奇異值是由大到小的排序。
在訊號處理中經常碰到觀測值的自相關矩陣,從物理意義上說,如果該觀測值是由幾個(如 K 個)相互統計獨立的源訊號線性混合而成,則該相關矩陣的秩或稱維數就為 K,由這 K 個統計獨立訊號構成 K 維的線性空間,可由自相關矩陣最大 K 個特徵值所對應的特徵向量或觀測值矩陣最大 K 個奇異值所對應的左奇異向量展成的子空間表示,通常稱訊號子空間,它的補空間稱雜訊子空間,兩類子空間相互正交。理論上,由於雜訊的存在,自相關矩陣是正定的,但實際應用時,由於樣本數量有限,可能發生奇異,矩陣條件數無窮大,造成數值不穩定,並且自相關矩陣特徵值是觀測值矩陣奇異值的平方,數值動態範圍大,因而子空間分析時常採用觀測值矩陣奇異值分解,當然奇異值分解也可對奇異的自相關矩陣進行。在自相關矩陣正定時,特徵值分解是奇異值分解的特例,且實現時相對簡單些,實際中,常採用對角載入法保證自相關矩陣正定,對各特徵子空間沒有影響。
至於特徵值分解和奇異值分解在數學意義上的嚴格定義及其聯絡和區別,因為用不上,我沒什麼研究,抱歉。
在一般意義上二者的結果形式是不同的.但在某種特定的情況下,二者還是有一些聯絡的. 下面我們就來仔細的分析它們的聯絡.
對於特徵值分解 [v,d] = eig( A ) , 我們有這樣的關係 A = v*d*inv(v)
特徵值分解中有一種特殊的分解, 叫正交分解. 正交分解其實就是對稱陣的特徵值分解, [v,d] = eig(B ) , B = v*d*inv(v); 由於正交分解得到的正交陣滿足如下的關係: v*v' = I,所以有 v'=inv(v); 那麼也就有 B = v*d*v';
對於奇異值分解,其分解的基本形式為 [u,s,v] = svd(C), C = u*s*v'. 若C陣為對稱的方陣, 則有 u = v; 所以有 C = v*s*v';
所以由上述,二者單純在數學意義上,在特定的情況下,還是有一定的聯絡的.若有不對的地方,還請指教!