使用PHP的curl擴充抓取頁面資料,PHP的curl擴充是PHP支援的允許你與各種伺服器使用各種類型的協議進行串連和通訊的庫。
本程式是抓取知乎的使用者資料,要能訪問使用者個人頁面,需要使用者登入後的才能訪問。當我們在瀏覽器的頁面中點擊一個帳戶圖片連結進入使用者個人中心頁面的時候,之所以能夠看到使用者的資訊,是因為在點選連結的時候,瀏覽器幫你將本地的cookie帶上一齊提交到新的頁面,所以你就能進入到使用者的個人中心頁面。因此實現訪問個人頁面之前需要先獲得使用者的cookie資訊,然後在每次curl請求的時候帶上cookie資訊。在擷取cookie資訊方面,我是用了自己的cookie,在頁面中可以看到自己的cookie資訊:
一個個地複製,以"__utma=?;__utmb=?;"這樣的形式組成一個cookie字串。接下來就可以使用該cookie字串來發送請求。
初始的樣本:
$url = 'http://www.zhihu.com/people/mora-hu/about'; //此處mora-hu代表使用者ID $ch = curl_init($url); //初始化會話 curl_setopt($ch, CURLOPT_HEADER, 0); curl_setopt($ch, CURLOPT_COOKIE, $this->config_arr['user_cookie']); //佈建要求COOKIE curl_setopt($ch, CURLOPT_USERAGENT, $_SERVER['HTTP_USER_AGENT']); curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); //將curl_exec()擷取的資訊以檔案流的形式返回,而不是直接輸出。 curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); $result = curl_exec($ch); return $result; //抓取的結果
運行上面的代碼可以獲得mora-hu使用者的個人中心頁面。利用該結果再使用Regex對頁面進行處理,就能擷取到姓名,性別等所需要抓取的資訊。
圖片防盜鏈
在對返回結果進行正則處理後輸出個人資訊的時候,發現在頁面中輸出帳戶圖片時無法開啟。經過查閱資料得知,是因為知乎對圖片做了防盜鏈處理。解決方案就是請求圖片的時候在要求標頭裡偽造一個referer。
在使用Regex擷取到圖片的連結之後,再發一次請求,這時候帶片請求的來源,說明該請求來自知乎網站的轉寄。具體例子如下:
function getImg($url, $u_id){ if (file_exists('./images/' . $u_id . ".jpg")) { return "images/$u_id" . '.jpg'; } if (empty($url)) { return ''; } $context_options = array( 'http' => array( 'header' => "Referer:http://www.zhihu.com"//帶上referer參數 ) ); $context = stream_context_create($context_options); $img = file_get_contents('http:' . $url, FALSE, $context); file_put_contents('./images/' . $u_id . ".jpg", $img); return "images/$u_id" . '.jpg';}
爬取更多使用者
不同的使用者的這個url幾乎是一樣的,不同的地方就在於使用者名稱那裡。用正則匹配拿到使用者名稱列表,一個一個地拼url,然後再逐個發請求(當然,一個一個是比較慢的,下面有解決方案,這個稍後會說到)。進入到新使用者的頁面之後,再重複上面的步驟,就這樣不斷迴圈,直到達到你所要的資料量。
linux統計檔案數量
指令碼跑了一段時間後,需要看看究竟擷取了多少圖片,當資料量比較大的時候,開啟檔案夾查看圖片數量就有點慢。指令碼是在linux環境下啟動並執行,因此可以使用linux的命令來統計檔案數量:
其中,ls -l是長列表輸出該目錄下的檔案資訊(這裡的檔案可以是目錄、連結、裝置檔案等);grep "^-"過濾長列表輸出資訊,"^-" 只保留一般檔案,如果只保留目錄是"^d";wc -l是統計輸出資訊的行數。下面是一個運行樣本:
插入MySQL時重複資料的處理
程式運行了一段時間後,發現有很多使用者的資料是重複的,因此需要在插入重複使用者資料的時候做處理。處理方案如下:
1)插入資料庫之前檢查資料是否已經存在資料庫;
2)添加唯一索引,插入時使用INSERT INTO ... ON DUPliCATE KEY UPDATE...
3)添加唯一索引,插入時使用INSERT INGNO
RE INTO...
4)添加唯一索引,插入時使用REPLACE INTO...
使用curl_multi實現I/O複用抓取頁面
剛開始單進程而且單個curl去抓取資料,速度很慢,掛機爬了一個晚上只能抓到2W的資料,於是便想到能不能在進入新的使用者頁面發curl請求的時候一次性請求多個使用者,後來發現了curl_multi這個好東西。curl_multi這類函數可以實現同時請求多個url,而不是一個個請求,這是一種I/O複用的機制。下面是使用curl_multi爬蟲的樣本:
$mh = curl_multi_init(); //返回一個新cURL批處理控制代碼 for ($i = 0; $i < $max_size; $i++) { $ch = curl_init(); //初始化單個cURL會話 curl_setopt($ch, CURLOPT_HEADER, 0); curl_setopt($ch, CURLOPT_URL, 'http://www.zhihu.com/people/' . $user_list[$i] . '/about'); curl_setopt($ch, CURLOPT_COOKIE, self::$user_cookie); curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.130 Safari/537.36'); curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); $requestMap[$i] = $ch; curl_multi_add_handle($mh, $ch); //向curl批處理會話中添加單獨的curl控制代碼 } $user_arr = array(); do { //運行當前 cURL 控制代碼的子串連 while (($cme = curl_multi_exec($mh, $active)) == CURLM_CALL_MULTI_PERFORM); if ($cme != CURLM_OK) {break;} //擷取當前解析的cURL的相關傳輸資訊 while ($done = curl_multi_info_read($mh)) { $info = curl_getinfo($done['handle']); $tmp_result = curl_multi_getcontent($done['handle']); $error = curl_error($done['handle']); $user_arr[] = array_values(getUserInfo($tmp_result)); //保證同時有$max_size個請求在處理 if ($i < sizeof($user_list) && isset($user_list[$i]) && $i < count($user_list)) { $ch = curl_init(); curl_setopt($ch, CURLOPT_HEADER, 0); curl_setopt($ch, CURLOPT_URL, 'http://www.zhihu.com/people/' . $user_list[$i] . '/about'); curl_setopt($ch, CURLOPT_COOKIE, self::$user_cookie); curl_setopt($ch, CURLOPT_USERAGENT, 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.130 Safari/537.36'); curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); $requestMap[$i] = $ch; curl_multi_add_handle($mh, $ch); $i++; } curl_multi_remove_handle($mh, $done['handle']); } if ($active) curl_multi_select($mh, 10); } while ($active); curl_multi_close($mh); return $user_arr;
HTTP 429 Too Many Requests
使用curl_multi函數可以同時發多個請求,但是在執行過程中使同時發200個請求的時候,發現很多請求無法返回了,即發現了丟包的情況。進一步分析,使用curl_getinfo函數列印每個請求控制代碼資訊,該函數返回一個包含HTTP response資訊的關聯陣列,其中有一個欄位是http_code,表示請求返回的HTTP狀態代碼。看到有很多個請求的http_code都是429,這個返回碼的意思是發送太多請求了。我猜是知乎做了防爬蟲的防護,於是我就拿其他的網站來做測試,發現一次性發200個請求時沒問題的,證明了我的猜測,知乎在這方面做了防護,即一次性的請求數量是有限制的。於是我不斷地減少請求數量,發現在5的時候就沒有丟包情況了。說明在這個程式裡一次性最多隻能發5個請求,雖然不多,但這也是一次小提升了。
使用Redis儲存已經訪問過的使用者
抓取使用者的過程中,發現有些使用者是已經訪問過的,而且他的粉絲和關注了的使用者都已經擷取過了,雖然在資料庫的層面做了重複資料的處理,但是程式還是會使用curl發請求,這樣重複的發送請求就有很多重複的網路開銷。還有一個就是待抓取的使用者需要暫時儲存在一個地方以便下一次執行,剛開始是放到數組裡面,後來發現要在程式裡添加多進程,在多進程編程裡,子進程會共用程式碼、函數庫,但是進程使用的變數與其他進程所使用的截然不同。不同進程之間的變數是分離的,不能被其他進程讀取,所以是不能使用數組的。因此就想到了使用Redis緩衝來儲存已經處理好的使用者以及待抓取的使用者。這樣每次執行完的時候都把使用者push到一個already_request_queue隊列中,把待抓取的使用者(即每個使用者的粉絲和關注了的使用者列表)push到request_queue裡面,然後每次執行前都從request_queue裡pop一個使用者,然後判斷是否在already_request_queue裡面,如果在,則進行下一個,否則就繼續執行。
在PHP中使用redis樣本:
<?php $redis = new Redis(); $redis->connect('127.0.0.1', '6379'); $redis->set('tmp', 'value'); if ($redis->exists('tmp')) { echo $redis->get('tmp') . "\n"; }
使用PHP的pcntl擴充實現多進程
改用了curl_multi函數實現多線程抓取使用者資訊之後,程式運行了一個晚上,最終得到的資料有10W。還不能達到自己的理想目標,於是便繼續最佳化,後來發現php裡面有一個pcntl擴充可以實現多進程編程。下面是多編程編程的樣本:
//PHP多進程demo //fork10個進程 for ($i = 0; $i < 10; $i++) { $pid = pcntl_fork(); if ($pid == -1) { echo "Could not fork!\n"; exit(1); } if (!$pid) { echo "child process $i running\n"; //子進程執行完畢之後就退出,以免繼續fork出新的子進程 exit($i); } } //等待子進程執行完畢,避免出現殭屍進程 while (pcntl_waitpid(0, $status) != -1) { $status = pcntl_wexitstatus($status); echo "Child $status completed\n"; }
在linux下查看系統的cpu資訊
實現了多進程編程之後,就想著多開幾條進程不斷地抓取使用者的資料,後來開了8調進程跑了一個晚上後發現只能拿到20W的資料,沒有多大的提升。於是查閱資料發現,根據系統最佳化的CPU效能調優,程式的最大進程數不能隨便給的,要根據CPU的核心數和來給,最大進程數最好是cpu核心數的2倍。因此需要查看cpu的資訊來看看cpu的核心數。在linux下查看cpu的資訊的命令:
其中,model name表示cpu類型資訊,cpu cores表示cpu核心數。這裡的核心數是1,因為是在虛擬機器下運行,分配到的cpu核心數比較少,因此只能開2條進程。最終的結果是,用了一個周末就抓取了110萬的使用者資料。
多進程編程中Redis和MySQL串連問題
在多進程條件下,程式運行了一段時間後,探索資料不能插入到資料庫,會報mysql too many connections的錯誤,redis也是如此。
下面這段代碼會執行失敗:
<?php for ($i = 0; $i < 10; $i++) { $pid = pcntl_fork(); if ($pid == -1) { echo "Could not fork!\n"; exit(1); } if (!$pid) { $redis = PRedis::getInstance(); // do something exit; } }
根本原因是在各個子進程建立時,就已經繼承了父進程一份完全一樣的拷貝。對象可以拷貝,但是已建立的串連不能被拷貝成多個,由此產生的結果,就是各個進程都使用同一個redis串連,各幹各的事,最終產生莫名其妙的衝突。
解決方案:
程式不能完全保證在fork進程之前,父進程不會建立redis串連執行個體。因此,要解決這個問題只能靠子進程本身了。試想一下,如果在子進程中擷取的執行個體只與當前進程相關,那麼這個問題就不存在了。於是解決方案就是稍微改造一下redis類執行個體化的靜態方式,與當前進程ID綁定起來。
改造後的代碼如下:
<?php public static function getInstance() { static $instances = array(); $key = getmypid();//擷取當前進程ID if ($empty($instances[$key])) { $inctances[$key] = new self(); } return $instances[$key]; }
PHP統計指令碼執行時間
因為想知道每個進程花費的時間是多少,因此寫個函數統計指令碼執行時間:
function microtime_float(){ list($u_sec, $sec) = explode(' ', microtime()); return (floatval($u_sec) + floatval($sec));}$start_time = microtime_float(); //do somethingusleep(100);$end_time = microtime_float();$total_time = $end_time - $start_time;$time_cost = sprintf("%.10f", $total_time);echo "program cost total " . $time_cost . "s\n";
若文中有不正確的地方,望各位指出以便改正。