【模式識別】獨立成分分析 ICA 中的幾種方法

來源:互聯網
上載者:User

 

 K-L 變換,也就是PCA,得到的是MSE下的最優結構,但有時對於分類效果並不是很好。所以我們引入了ICA。如果是PCA是使二階積累量為0的話,那麼ICA就是前四階積累量都是0.那ICA是什麼意思呢?

類別資訊的源頭是一組獨立的分量,但是類別資訊表現出來的是一組互相相關的分量,當然這組分量的個數應該大於獨立分量的個數。我們的任務就是去除這種互相關;使分量由相關的一組,變為無關的一組,也就是獨立成分。

 那具體該怎麼做呢?我們一下有這麼三個方法:

 

(一)累積量法

 

k1(z) = E[zi] ;

k2(z) = E[zizj] ;

k3(z) = E[zizizk] ;

k4(z) = E[zizjzkzl]  -  E[zizj] E[zkzl] - E[zizk] E[zlzj] -  E[zizl] E[zkzj];

對於一般的隨即變數,PDF(機率密度函數)都是對稱分布的。所以k1和k3為0.那麼,要使k2為0,我們舊的使用主成分分析就好,也就是PCA。所以第一步就是先做PCA,求的PCA的線性變換矩陣。y = Ax第二步,我們要做的是進行k4的最小化, 根據數學可知,k4的最小化,也就是求一個正交矩陣,使下面的式子最大。(交叉積累量最小也就是自積累量最大。)max Obj(B) = SUM(k4(yi)2) 之後結合上述資訊,我們有:x = (BA)y. ICA變換矩陣 W = BA。(2)最大熵法你可能會問,我們要降低特徵的維數,這是壓縮,為什麼還要最大化熵呢?壓縮的話不是熵越小越好嗎?的確,熵越小表示壓縮效果越好,但那是無損壓縮;對於本身我們已經確定下壓縮能力的有損壓縮模型而言,最大的接近原有的熵就意味著最大的保留了資訊。所以我們用最大化熵的辦法。其中:z = f(Wy + b); f 為Sigmoid函數。(公式比較複雜,我就不寫了)結果還是用迭代最佳化的演算法:dW = (WT)-1 + (1 - 2z)yTdb = 1 - 2z(3)最小互資訊法原理和(2)比較像,這裡從略。

 

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.