參數/非參數學習演算法

來源:互聯網
上載者:User

標籤:size   ext   定義   learning   計算   簡化   步驟   strong   合數   

一、參數學習演算法(parametric learning algorithm)

 

  定義:假設可以最大程度地簡化學習過程,與此同時也限制可以學習到是什麼,這種演算法簡化成一個已知的函數形式,即通過固定數目的參數來擬合資料的演算法。 

     參數學習演算法包括兩個步驟:

  • 選擇一種目標函數的形式
  • 從訓練資料中學習目標函數的係數

    參數學習演算法的一些常見例子包括:

  • Logistic Regression
  • LDA(線性判別分析)
  • 感知機
  • 樸素貝葉斯
  • 簡單的神經網路

 

?   參數機器學習演算法的優點:

 

  • 簡單:這些演算法很容易理解和解釋結果
  • 快速:參數模型可以很快從資料中學習
  • 少量的資料:它們不需要太多的訓練資料,甚至可以很好地擬合有缺陷的數
?   參數機器學習演算法的局限性:
  • 約束:這些演算法選擇一種函數形式高度低限制模型本身
  • 有限的複雜性:這種演算法可能更適合簡單的問題
  • 不適合:在實踐中,這些方法不太可能匹配潛在的目標(映射)函數

 

二、非參數學習演算法(non-parametric learning algorithm)

 

  定義:不對目標函數的形式作出強烈假設的演算法稱為非參數機器學習演算法,通過不做假設,它們可以從訓練資料中自由地學習任何函數形式,即參數數量會隨著訓練樣本數量的增長的演算法。 

    非參數學習演算法的一些常見例子包括:

  • KNN
  • 決策樹,比如CART和C4.5
  • SVM
?   非參數機器學習演算法的優點:
  • 靈活性:擬合大量的不同函數形式
  • 能力:關於潛在的函數不需要假設(或者若假設)
  • 效能:可以得到用於預測的高效能模型
?   非參數機器學習演算法的局限性:
  • 更多的資料:需要更多的訓練資料用於估計目標函數
  • :訓練很慢,因為它們常常需要訓練更多的參數
  • 過擬合:更多的過度學習訓練資料風險,同時它更難解釋為什麼要做出的具體預測

 

註:

  局部加權線性迴歸其實是一個非參數學習演算法(non-parametric learning algorithm);

  線性迴歸則是一個參數學習演算法(parametric learning algorithm),因為它的參數是固定不變的,而局部加權線性迴歸的參數是隨著預測點的不同而不同。

  由於每次預測時都只看預測點附近的執行個體點,因此每一次預測都要重新運行一遍演算法,得出一個組參數值,因此其計算代價很大。

參數/非參數學習演算法

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.