Python抓取中文網頁

來源:互聯網
上載者:User

早就有想法把部落格每天的訪問流量記下來,剛好現在申請了GAE的應用,又開始學Python,正好拿這個練手。打算先利用Python把訪問記錄儲存在本地,熟悉之後可以部署到GAE,利用GAE提供的cron就可以每天更近訪問流量了。OK,開始~

  首先是簡單的網頁抓取程式:

  [python] view plaincopy import sys, urllib2

  req = urllib2.Request("http://blog.csdn.net/nevasun")

  fd = urllib2.urlopen(req)

  while True:data = fd.read(1024)

  if not len(data):break sys.stdout.write(data)

  在終端運行提示urllib2.HTTPError: HTTP Error 403: Forbidden,怎麼回事呢?

  這是由於網站禁止爬蟲,可以在請求加上頭資訊,偽裝成瀏覽器訪問。添加和修改:

  [python] view plaincopy headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'} req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)

  再試一下,HTTP Error 403沒有了,但是中文全都是亂碼。又是怎麼回事?

  這是由於網站是utf-8編碼的,需要轉換成本地系統的編碼格式:

  [python] view plaincopy import sys, urllib2

  headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'} req = urllib2.Request("http://blog.csdn.net/nevasun", headers=headers)

  content = urllib2.urlopen(req)。read()   # UTF-8

  type = sys.getfilesystemencoding()      # local encode format print content.decode("UTF-8")。encode(type)  # convert encode format OK,大功告成,可以抓取中文頁面了。下一步就是在GAE上做個簡單的應用了~

 

轉自:http://linux.chinaitlab.com/Python/878184.html

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.