矩陣的奇異值分解和特徵值分解的異同

來源:互聯網
上載者:User

簡單的講 所有的矩陣都可以進行奇異值分解,不管其是否是方陣以及對稱矩陣。當所給的矩陣是對稱的方陣,A(T)=A,二者的結果是相同的。也就是說對稱矩陣的特徵值分解是所有奇異值分解的一個特例。

但是二者還是存在一些小的差異,奇異值分解需要對奇異值從大到小的排序,而且全部是大於等於零。

在應用程式層面上,訊號處理中常常遇到一些降維,主分量分析等等的處理需要用到奇異值分解。一般來講,奇異值分解應用的範圍比較廣泛。

比如說,對於一個零均值的訊號的自相關矩陣CX = X'X,對CX進行奇異值分解和特徵值分解,基本上是相似的,但還要注意的是奇異值是由大到小的排序。

 

 

在訊號處理中經常碰到觀測值的自相關矩陣,從物理意義上說,如果該觀測值是由幾個(如 K 個)相互統計獨立的源訊號線性混合而成,則該相關矩陣的秩或稱維數就為 K,由這 K 個統計獨立訊號構成 K 維的線性空間,可由自相關矩陣最大 K 個特徵值所對應的特徵向量或觀測值矩陣最大 K 個奇異值所對應的左奇異向量展成的子空間表示,通常稱訊號子空間,它的補空間稱雜訊子空間,兩類子空間相互正交。理論上,由於雜訊的存在,自相關矩陣是正定的,但實際應用時,由於樣本數量有限,可能發生奇異,矩陣條件數無窮大,造成數值不穩定,並且自相關矩陣特徵值是觀測值矩陣奇異值的平方,數值動態範圍大,因而子空間分析時常採用觀測值矩陣奇異值分解,當然奇異值分解也可對奇異的自相關矩陣進行。在自相關矩陣正定時,特徵值分解是奇異值分解的特例,且實現時相對簡單些,實際中,常採用對角載入法保證自相關矩陣正定,對各特徵子空間沒有影響。

 

至於特徵值分解和奇異值分解在數學意義上的嚴格定義及其聯絡和區別,因為用不上,我沒什麼研究,抱歉。

 

 

 

在一般意義上二者的結果形式是不同的.但在某種特定的情況下,二者還是有一些聯絡的. 下面我們就來仔細的分析它們的聯絡. 

 

   對於特徵值分解   [v,d] = eig( A )   , 我們有這樣的關係   A = v*d*inv(v)

特徵值分解中有一種特殊的分解, 叫正交分解. 正交分解其實就是對稱陣的特徵值分解, [v,d] = eig(B ) , B = v*d*inv(v); 由於正交分解得到的正交陣滿足如下的關係: v*v' = I,所以有 v'=inv(v); 那麼也就有 B = v*d*v';

 

   對於奇異值分解,其分解的基本形式為 [u,s,v] = svd(C),   C = u*s*v'.   若C陣為對稱的方陣, 則有 u = v; 所以有 C = v*s*v';

 

    所以由上述,二者單純在數學意義上,在特定的情況下,還是有一定的聯絡的.若有不對的地方,還請指教!

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.