零基礎寫python爬蟲之抓取糗事百科代碼分享

來源:互聯網
上載者:User
項目內容:

用Python寫的糗事百科的網路爬蟲。

使用方法:

建立一個Bug.py檔案,然後將代碼複製到裡面後,雙擊運行。

程式功能:

在命令提示行中瀏覽糗事百科。

原理解釋:

首先,先瀏覽一下糗事百科的首頁:http://www.qiushibaike.com/hot/page/1
可以看出來,連結中page/後面的數字就是對應的頁碼,記住這一點為以後的編寫做準備。
然後,右擊查看頁面源碼:

觀察發現,每一個段子都用div標記,其中class必為content,title是發帖時間,我們只需要用Regex將其“扣”出來就可以了。
明白了原理之後,剩下的就是Regex的內容了,可以參照這篇文章:
http://www.bitsCN.com/article/57150.htm

運行效果:


代碼如下:


# -*- coding: utf-8 -*-

import urllib2
import urllib
import re
import thread
import time
#----------- 載入處理糗事百科 -----------
class Spider_Model:

def __init__(self):
self.page = 1
self.pages = []
self.enable = False

# 將所有的段子都扣出來,添加到列表中並且返回列表
def GetPage(self,page):
myUrl = "http://m.qiushibaike.com/hot/page/" + page
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
req = urllib2.Request(myUrl, headers = headers)
myResponse = urllib2.urlopen(req)
myPage = myResponse.read()
#encode的作用是將unicode編碼轉換成其他編碼的字串
#decode的作用是將其他編碼的字串轉換成unicode編碼
unicodePage = myPage.decode("utf-8")

# 找出所有class="content"的div標記
#re.S是任意匹配模式,也就是.可以匹配分行符號
myItems = re.findall('(.*?)',unicodePage,re.S)
items = []
for item in myItems:
# item 中第一個是div的標題,也就是時間
# item 中第二個是div的內容,也就是內容
items.append([item[0].replace("\n",""),item[1].replace("\n","")])
return items

# 用於載入新的段子
def LoadPage(self):
# 如果使用者未輸入quit則一直運行
while self.enable:
# 如果pages數組中的內容小於2個
if len(self.pages) < 2:
try:
# 擷取新的頁面中的段子們
myPage = self.GetPage(str(self.page))
self.page += 1
self.pages.append(myPage)
except:
print '無法連結糗事百科!'
else:
time.sleep(1)

def ShowPage(self,nowPage,page):
for items in nowPage:
print u'第%d頁' % page , items[0] , items[1]
myInput = raw_input()
if myInput == "quit":
self.enable = False
break

def Start(self):
self.enable = True
page = self.page

print u'正在載入中請稍候......'

# 建立一個線程在後台載入段子並儲存
thread.start_new_thread(self.LoadPage,())

#----------- 載入處理糗事百科 -----------
while self.enable:
# 如果self的page數組中存有元素
if self.pages:
nowPage = self.pages[0]
del self.pages[0]
self.ShowPage(nowPage,page)
page += 1

#----------- 程式的入口處 -----------
print u"""
---------------------------------------
程式:糗百爬蟲
版本:0.3
作者:why
日期:2014-06-03
語言:Python 2.7
操作:輸入quit退出閱讀糗事百科
功能:按下斷行符號依次瀏覽今日的糗百熱點
---------------------------------------
"""
print u'請按下斷行符號瀏覽今日的糗百內容:'
raw_input(' ')
myModel = Spider_Model()
myModel.Start()


Q&A:
1.為什麼有段時間顯示糗事百科不可用?
答:前段時間因為糗事百科添加了Header的檢驗,導致無法爬取,需要在代碼中類比Header。現在代碼已經作了修改,可以正常使用。

2.為什麼需要單獨建立個線程?
答:基本流程是這樣的:爬蟲在後台新起一個線程,一直爬取兩頁的糗事百科,如果剩餘不足兩頁,則再爬一頁。使用者按下斷行符號只是從庫存中擷取最新的內容,而不是上網擷取,所以瀏覽更順暢。也可以把載入放在主線程,不過這樣會導致爬取過程中等待時間過長的問題。

  • 聯繫我們

    該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

    如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

    A Free Trial That Lets You Build Big!

    Start building with 50+ products and up to 12 months usage for Elastic Compute Service

    • Sales Support

      1 on 1 presale consultation

    • After-Sales Support

      24/7 Technical Support 6 Free Tickets per Quarter Faster Response

    • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.