互連網金融爬蟲怎麼寫-第四課 雪球網股票爬蟲(單頁面多資料)

來源:互聯網
上載者:User

標籤:網路爬蟲   雪球網   金融爬蟲   

Previous on  系列教程:

互連網金融爬蟲怎麼寫-第一課 p2p網貸爬蟲(XPath入門)

互連網金融爬蟲怎麼寫-第二課 雪球網股票爬蟲(Regex入門)

互連網金融爬蟲怎麼寫-第三課 雪球網股票爬蟲(ajax分析)


哈哈,我又來了,話說出教程就是這麼任性,咱們乘熱打鐵,把上節課分析完成但是沒寫的代碼給完成了!


工具要求:

教程中主要使用到了 1、神箭手雲爬蟲 架構  這個是爬蟲的基礎,2、Chrome瀏覽器和Chrome的外掛程式XpathHelper 這個用來測試Xpath寫的是否正確 3、Advanced REST Client用來類比提交請求

基礎知識:

本教程中主要用到了一些基礎的js和xpath文法,如果對這兩種語言不熟悉,可以提前先學習下,都很簡單。


還記得我們在遙遠的電商系列爬蟲教程的第一課裡提到具體寫爬蟲的幾個步驟嗎?我們沿著路徑再來走一遍:


第一步:確定入口URL

暫且使用這個第一頁的ajax的url連結:

http://xueqiu.com/stock/cata/stocklist.json?page=1&size=30&order=desc&orderby=percent&type=11%2C12

第二步:區分內容頁和中間頁

這次大家有點犯難了,雖然說每一個股票都有一個單獨的頁面,但是列表頁的資訊已經蠻多的了,光爬取列表頁資訊就已經夠了,那怎麼區分內容頁和中間頁呢?其實我們只需要將內容頁和中間頁的正則設定成一樣的既可。如下:

http://xueqiu.com/stock/cata/stocklist\\.json\\?page=\\d+&size=30&order=desc&orderby=percent&type=11%2C12

在提醒大家一下,這裡之所以轉義符用了兩個是因為在神箭手中,設定正則時,是字串設定,需要對轉義符再做一次轉義。

第三步:內容頁抽取規則

由於ajax返回的是json,而神箭手是支援jsonpath的提取方式的,因此擷取規則就很簡單了。不過這裡要特殊注意的是,由於我們是在列表頁抽取資料,因此資料最頂層相當於是一個列表,我們需要在頂層的field上設定一個列表資料的值。具體抽取規則如下:

fields: [

{

name:"stocks",

selector:"$.stocks",

selectorType:SelectorType.JsonPath,

repeated:true,

children:[

{

name:"code",

alias:"代碼",

selector:"$.code",

selectorType:SelectorType.JsonPath,

},

{

name:"name",

alias:"名稱",

selector:"$.name",

selectorType:SelectorType.JsonPath,

},

{

name:"current",

alias:"當前價格",

selector:"$.current",

selectorType:SelectorType.JsonPath,

},

{

name:"high",

alias:"最高價格",

selector:"$.high",

selectorType:SelectorType.JsonPath,

},

{

name:"low",

alias:"最低價格",

selector:"$.low",

selectorType:SelectorType.JsonPath,

}

]

}

]

我簡單抽取了一些資訊,其他資訊都類似。

好了,主要的代碼基本已經寫好了,剩下的還需要解決兩個問題

1.爬取前需要先訪問一下首頁擷取cookie

2.雖然可以直接加入下一頁,但是一共有多少頁並不知道。

首先對於第一點,我們只需要在beforeCrawl回調中訪問一下首頁即可,神箭手會自動對cookie進行處理和儲存,具體代碼如下:

configs.beforeCrawl =function(site){

    site.requestUrl("http://xueqiu.com");

};

好了,除了下一頁基本已經沒什麼問題了,我們先測試一下看看效果:

650) this.width=650;" src="http://upload-images.jianshu.io/upload_images/2069553-f1f456c7ec2b7eb0.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240" class="imagebubble-image" alt="1240" />

資料已經出來了,沒問題,第一頁的資料都有了,那下一頁怎麼處理呢?我們有兩個方案:


第一個方案:

我們可以看到json的傳回值中有一個count欄位,這個欄位目測應該是總資料量的值,那沒我們根據這個值,再加上單頁資料條數,我們就可以判斷總共有多少頁了。

第二個方案:

我們先訪問一下,假設頁數很大,看看會雪球會返回什麼,我們嘗試訪問第500頁,可以看到傳回值中的stocks是0個,那麼我們可以根據是否有資料來判斷需不需要加下一頁。

兩個方案各有利弊,我們這裡選擇用第一個方案來處理,具體代碼如下:

configs.onProcessHelperPage =function(page, content, site){

if(page.url.indexOf("page=1&size=30") !== -1){

//如果是第一頁

varresult = JSON.parse(page.raw);

varcount = result.count.count;

varpage_num = Math.ceil(count/30);

if(page_num > 1){

for(vari = 2;i<=page_num;i++){

site.addUrl("http://xueqiu.com/stock/cata/stocklist.json?page="+i+"&size=30&order=desc&orderby=percent&type=11%2C12");

}

}

}

};


好了,通過三課的艱苦奮戰,終於完成了雪球滬深一覽的征服。先看下跑出來的效果。

650) this.width=650;" src="http://upload-images.jianshu.io/upload_images/2069553-3db6bf2509dfdf3a.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240" class="imagebubble-image" alt="1240" />


完整代碼如下:

varconfigs = {

domains: ["xueqiu.com"],

scanUrls: ["http://xueqiu.com/stock/cata/stocklist.json?page=1&size=30&order=desc&orderby=percent&type=11%2C12"],

contentUrlRegexes: ["http://xueqiu.com/stock/cata/stocklist\\.json\\?page=\\d+&size=30&order=desc&orderby=percent&type=11%2C12"],

helperUrlRegexes: ["http://xueqiu.com/stock/cata/stocklist\\.json\\?page=\\d+&size=30&order=desc&orderby=percent&type=11%2C12"],

fields: [

{

name:"stocks",

selector:"$.stocks",

selectorType:SelectorType.JsonPath,

repeated:true,

children:[

{

name:"code",

alias:"代碼",

selector:"$.code",

selectorType:SelectorType.JsonPath,

},

{

name:"name",

alias:"名稱",

selector:"$.name",

selectorType:SelectorType.JsonPath,

},

{

name:"current",

alias:"當前價格",

selector:"$.current",

selectorType:SelectorType.JsonPath,

},

{

name:"high",

alias:"最高價格",

selector:"$.high",

selectorType:SelectorType.JsonPath,

},

{

name:"low",

alias:"最低價格",

selector:"$.low",

selectorType:SelectorType.JsonPath,

}

]

}

]

};

configs.onProcessHelperPage =function(page, content, site){

if(page.url.indexOf("page=1&size=30") !== -1){

//如果是第一頁

varresult = JSON.parse(page.raw);

varcount = result.count.count;

varpage_num = Math.ceil(count/30);

if(page_num > 1){

for(vari = 2;i<=page_num;i++){

site.addUrl("http://xueqiu.com/stock/cata/stocklist.json?page="+i+"&size=30&order=desc&orderby=percent&type=11%2C12");

}

}

}

};

configs.beforeCrawl =function(site){

site.requestUrl("http://xueqiu.com");

};

varcrawler =newCrawler(configs);

crawler.start();

這樣我們的雪球網股票爬蟲就算大功告成,當然我們還可以把type的設定模板化。不過這個是一些進階的方法,我們會在後面的課程中再去詳細描述

最後,對爬蟲感興趣的童鞋歡迎加qq群跟我討論:566855261。


互連網金融爬蟲怎麼寫-第四課 雪球網股票爬蟲(單頁面多資料)

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.