PHP實現機器學習之樸素貝葉斯演算法詳解

來源:互聯網
上載者:User
這篇文章主要介紹了PHP實現機器學習之樸素貝葉斯演算法,結合執行個體形式詳細分析了樸素貝葉斯演算法的概念、原理及php實現技巧,需要的朋友可以參考下

本文執行個體講述了PHP實現機器學習之樸素貝葉斯演算法。分享給大家供大家參考,具體如下:

機器學習已經在我們的生活中變得隨處可見了。比如從你在家的時候溫控器開始工作到智能汽車以及我們口袋中的智能手機。機器學習看上去已經無處不在並且是一個非常值得探索的領域。但是什麼是機器學習呢?通常來說,機器學習就是讓系統不斷的學習並且對新的問題進行預測。從簡單的預測購物商品到複雜的數字助理預測。

在這篇文章我將會使用樸素貝葉斯演算法Clasifier作為一個類來介紹。這是一個簡單易於實施的演算法,並且可給出滿意的結果。但是這個演算法是需要一點統計學的知識去理解的。在文章的最後部分你可以看到一些執行個體代碼,甚至自己去嘗試著自己做一下你的機器學習。

起步

那麼,這個Classifier是要用來實現什麼功能呢?其實它主要是用來判斷給定的語句是積極地還是消極的。比如,“Symfony is the best”是一個積極的語句,“No Symfony is bad”是一個消極的語句。所以在給定了一個語句之後,我想讓這個Classifier在我不給定一個新的規則的情況就返回一個語句類型。

我給Classifier命名了一個相同名稱的類,並且包含一個guess方法。這個方法接受一個語句的輸入,並且會返回這個語句是積極的還是消極的。這個類就像下面這樣:

class Classifier{ public function guess($statement) {}}

我更喜歡使用枚舉類型的類而不是字串作為我的傳回值。我將這個枚舉類型的類命名為Type,並且包含兩個常量:一個POSITIVE,一個NEGATIVE。這兩個常量將會當做guess方法的傳回值。

class Type{ const POSITIVE = 'positive'; const NEGATIVE = 'negative';}

初始化工作已經完成,接下來就是要編寫我們的演算法進行預測了。

樸素貝葉斯

樸素貝葉斯演算法是基於一個訓練集合工作的,根據這個訓練集從而做出相應的預測。這個演算法運用了簡單的統計學以及一點數學去進行結果的計算。比如像下面四個文本組成的訓練集合:

語句 類型
Symfony is the best Positive
PhpStorm is great Positive
Iltar complains a lot Negative
No Symfony is bad Negative


如果給定語句是“Symfony is the best”,那麼你可以說這個語句是積極地。你平常也會根據之前學習到的相應知識做出對應的決定,樸素貝葉斯演算法也是同樣的道理:它根據之前的訓練集來決定哪一個類型更加相近。

學習

在這個演算法正式工作之前,它需要大量的曆史資訊作為訓練集。它需要知道兩件事:每一個類型對應的詞產生了多少次和每一個語句對應的類型是什麼。我們在實施的時候會將這兩種資訊儲存在兩個數組當中。一個數組包含每一類型的詞語統計,另一個數組包含每一個類型的語句統計。所有的其他資訊都可以從這兩個數組中彙總。代碼就像下面的一樣:

function learn($statement, $type){ $words = $this->getWords($statement); foreach ($words as $word) { if (!isset($this->words[$type][$word])) {  $this->words[$type][$word] = 0; } $this->words[$type][$word]++; // 增加類型的詞語統計 } $this->documents[$type]++; // 增加類型的語句統計}

有了這個集合以後,現在這個演算法就可以根據曆史資料接受預測訓練了。

定義

為瞭解釋這個演算法是如何工作的,幾個定義是必要的。首先,讓我們定義一下輸入的語句是給定類型中的一個的機率。這個將會表示為P(Type)。它是以已知類型的資料的類型作為分子,還有整個訓練集的資料數量作為分母來得出的。一個資料就是整個訓練集中的一個。到現在為止,這個方法可以將會命名為totalP,像下面這樣:

function totalP($type){ return ($this->documents[$type] + 1) / (array_sum($this->documents) + 1);}

請注意,在這裡分子和分母都加了1。這是為了避免分子和分母都為0的情況。

根據上面的訓練集的例子,積極和消極的類型都會得出0.6的機率。每中類型的資料都是2個,一共是4個資料所以就是(2+1)/(4+1)。

第二個要定義的是對於給定的一個詞是屬於哪個確定類型的機率。這個我們定義成P(word,Type)。首先我們要得到一個詞在訓練集中給出確定類型出現的次數,然後用這個結果來除以整個給定類型資料的詞數。這個方法我們定義為p:

function p($word, $type){ $count = isset($this->words[$type][$word]) ? $this->words[$type][$word] : 0; return ($count + 1) / (array_sum($this->words[$type]) + 1);}

在本次的訓練集中,“is”的是積極類型的機率為0.375。這個詞在整個積極的資料中的7個詞中佔了兩次,所以結果就是(2+1)/(7+1)。

最後,這個演算法應該只關心關鍵詞而忽略其他的因素。一個簡單的方法就是將給定的字串中的單詞分離出來:

function getWords($string){ return preg_split('/\s+/', preg_replace('/[^A-Za-z0-9\s]/', '', strtolower($string)));}

準備工作都做好了,開始真正實施我們的計劃吧!

預測

為了預測語句的類型,這個演算法應該計算所給定語句的兩個類型的機率。像上面一樣,我們定義一個P(Type,sentence)。得出機率高的類型將會是Classifier類中演算法返回的結果。

為了計算P(Type,sentence),演算法當中將用到貝葉斯定理。演算法像這樣被定義:P(Type,sentence)= P(Type)* P(sentence,Type)/ P(sentence)。這意味著給定語句的類型機率和給定類型語句機率除以語句的機率的結果是相同的。

那麼演算法在計算每一個相同語句的P(Tyoe,sentence),P(sentence)是保持一樣的。這意味著演算法就可以省略其他因素,我們只需要關心最高的機率而不是實際的值。計算就像這樣:P(Type,sentence) = P(Type)* P(sentence,Type)。

最後,為了計算P(sentence,Type),我們可以為語句中的每個詞添加一條鏈式規則。所以在一條語句中如果有n個詞的話,它將會和P(word_1,Type)* P(word_2,Type)* P(word_3,Type)* .....*P(word_n,Type)是一樣的。每一個詞計算結果的機率使用了我們前面看到的定義。

好了,所有的都說完了,是時候在php中實際操作一下了:

function guess($statement){ $words = $this->getWords($statement); // 得到單詞 $best_likelihood = 0; $best_type = null; foreach ($this->types as $type) { $likelihood = $this->pTotal($type); //計算 P(Type) foreach ($words as $word) {  $likelihood *= $this->p($word, $type); // 計算 P(word, Type) } if ($likelihood > $best_likelihood) {  $best_likelihood = $likelihood;  $best_type = $type; } } return $best_type;}

這就是所有的工作,現在演算法可以預測語句的類型了。你要做的就是讓你的演算法開始學習:

$classifier = new Classifier();$classifier->learn('Symfony is the best', Type::POSITIVE);$classifier->learn('PhpStorm is great', Type::POSITIVE);$classifier->learn('Iltar complains a lot', Type::NEGATIVE);$classifier->learn('No Symfony is bad', Type::NEGATIVE);var_dump($classifier->guess('Symfony is great')); // string(8) "positive"var_dump($classifier->guess('I complain a lot')); // string(8) "negative"

所有的代碼我已經上傳到了GIT上,https://github.com/yannickl88/blog-articles/blob/master/src/machine-learning-naive-bayes/Classifier.php

github上完整php代碼如下:

<?phpclass Type{ const POSITIVE = 'positive'; const NEGATIVE = 'negative';}class Classifier{ private $types = [Type::POSITIVE, Type::NEGATIVE]; private $words = [Type::POSITIVE => [], Type::NEGATIVE => []]; private $documents = [Type::POSITIVE => 0, Type::NEGATIVE => 0]; public function guess($statement) { $words  = $this->getWords($statement); // get the words $best_likelihood = 0; $best_type = null; foreach ($this->types as $type) {  $likelihood = $this->pTotal($type); // calculate P(Type)  foreach ($words as $word) {  $likelihood *= $this->p($word, $type); // calculate P(word, Type)  }  if ($likelihood > $best_likelihood) {  $best_likelihood = $likelihood;  $best_type = $type;  } } return $best_type; } public function learn($statement, $type) { $words = $this->getWords($statement); foreach ($words as $word) {  if (!isset($this->words[$type][$word])) {  $this->words[$type][$word] = 0;  }  $this->words[$type][$word]++; // increment the word count for the type } $this->documents[$type]++; // increment the document count for the type } public function p($word, $type) { $count = 0; if (isset($this->words[$type][$word])) {  $count = $this->words[$type][$word]; } return ($count + 1) / (array_sum($this->words[$type]) + 1); } public function pTotal($type) { return ($this->documents[$type] + 1) / (array_sum($this->documents) + 1); } public function getWords($string) { return preg_split('/\s+/', preg_replace('/[^A-Za-z0-9\s]/', '', strtolower($string))); }}$classifier = new Classifier();$classifier->learn('Symfony is the best', Type::POSITIVE);$classifier->learn('PhpStorm is great', Type::POSITIVE);$classifier->learn('Iltar complains a lot', Type::NEGATIVE);$classifier->learn('No Symfony is bad', Type::NEGATIVE);var_dump($classifier->guess('Symfony is great')); // string(8) "positive"var_dump($classifier->guess('I complain a lot')); // string(8) "negative"

結束語

儘管我們只進行了很少的訓練,但是演算法還是應該能給出相對精確的結果。在真實環境,你可以讓機器學習成百上千的記錄,這樣就可以給出更精準的結果。你可以下載查看這篇文章(英文):樸素貝葉斯已經被證明可以給出情緒統計的結果。

而且,樸素貝葉斯不僅僅可以運用到文本類的應用。希望通過這篇文章可以拉近你和機器學習的一點點距離。

原文地址:https://stovepipe.systems/post/machine-learning-naive-bayes

您可能感興趣的文章:

PHP實現單鏈表翻轉操作樣本講解

PHP實現合并兩個有序數組的方法講解

PHP實現約瑟夫環問題的方法詳解

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.