【演算法學習】隱性馬爾科夫模型學習(翻譯自Wiki)

來源:互聯網
上載者:User

作者:gnuhpc
出處:http://www.cnblogs.com/gnuhpc/

首先從最簡單的離散Markov過程入手,我們知 道,Markov隨機過程具有如下的性質:在任意時刻,從目前狀態轉移到下一個狀態的機率與目前狀態之前的那些狀態沒有關係。所以,我們可以用一個狀態轉 移機率矩陣來描述它。假設我們有n個離散狀態S1, S2,…Sn,我們可以構造一個矩陣A,矩陣中的元素aij表示從目前狀態Si下一時刻遷移到Sj狀態的機率。
但是在很多情況 下,Markov模型中的狀態是我們觀察不到的。例如,容器與綵球的模型:有若干個容器,每個容器中按已知比例放入各色的綵球(這樣,選擇了容器後,我們 可以用機率來預測取出各種綵球的可能性);我們做這樣的實驗,實驗者從容器中取綵球——先選擇一個容器,再從中抓出某一個球,只給觀察者看球的顏色;這 樣,每次取取出的球的顏色是可以觀測到的,即o1, o2,…,但是每次選擇哪個容器是不暴露給觀察者的,容器的序列就組成了隱藏狀態序列S1, S2,…Sn。這是一個典型的可以用HMM描述的實驗。
HMM有幾個重要的任務,其中之一就是期望通過觀察序列來猜測背後最有可能的隱藏 序列。需要確定一個最佳判斷準則。在上面的例子中,就是找到我們在實驗中最有可能選擇到的容器序列。Viterbi正是用來解決這個問題的演算法。HMM另 外兩個任務是:a) 給定一個HMM,計算一個觀測序列出現的可能性;b)已知一個觀測序列,HMM參數不定,如何最佳化這些參數使得觀測序列的出現機率最大。解決前一個問題由 於狀態隱蔽而較之馬爾科夫鏈的情況大大複雜,可以用與Viberbi結構非常類似的Forward演算法來解決(實際上在下面合二為一),並且在給出兩個 HMM模型時要可以選擇一個更好的。而後者可以用Baum-Welch/EM演算法來迭代逼近。

作者:gnuhpc
出處:http://www.cnblogs.com/gnuhpc/

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.