最近購買了幾個PR值高的網站連結,把我們自己的網站連結掛上去。為了能夠檢測對方的網站是否把我們的網站連結放上去,特地用Python寫了一個小指令碼,因為這是我的第一個Python程式,所以參考了網上的代碼。所以,如有雷同,純屬模仿。
早就聽說Python語言操作簡單,果然名不虛傳,短短几句,就實現了基本的功能。
要檢測目標網站上是否存在指定的URL,其實過程很簡單:
1、獲得指定網站網頁的HTML代碼
2、在HTML代碼中尋找指定的URL
3、如果存在,OK;否則,Error
整個程式引用了兩個lib庫,urllib2和sgmllib。
urllib2庫主要定義了一些訪問URL(基本通過HTTP)的函數與類。
sgmllib庫主要負責解析HTML代碼。
1 import urllib2
2 from sgmllib import SGMLParser
3
4 class URLLister(SGMLParser):
5 def reset(self):
6 SGMLParser.reset(self)
7 self.urls = []
8
9 def start_a(self,attrs):
10 href=[v for k,v in attrs if k=='href']
11 if href:
12 if (href[0].count('http://網站URL')==1):
13 self.urls.extend(href)
14
15
16 links = ['http://www.google.com/',
17 'http://www.baidu.com',
18 'http://www.sohu.net',
19 'http://www.163.com',
20 'http://www.cnblogs.com',
21 'http://www.qq.com',
22 'http://www.yahoo.com/',
23 'http://www.bing.com/',
24 'http://www.360.com',]
25
26 for eachlink in links:
27 f = urllib2.urlopen(eachlink)
28 if f.code ==200:
29 parser = URLLister()
30 parser.feed(f.read())
31 f.close()
32 if (len(parser.urls)>=1):
33 print 'The link from '+eachlink+' is OK!'
34 else:
35 print 'The link from '+eachlink+' is ERROR!'
這其中幾個主要函數:
1、urllib2.urlopen(url[, data][, timeout])//開啟一個URL
2、SGMLParser.feed(data) //獲得需要解析的HTML資料
3、SGMLParser.start_tag(attributes) //指定需要解析的HTML標籤,在本程式中,我們調用了start_a,說明我們需要解析HTML代碼中<a>標籤。通過尋找<a>標籤中href屬性的value,可以獲得該網頁上所有連結的資訊,只要我們指定的URL存在,就OK了。
這其實是一個很小的指令碼,但也讓我激動不已。一來,我已經跨進了Python的世界,並用它解決了實際工作中的問題,二來,它的簡單文法、縮排格式著實讓我眼前一亮。今後,希望能夠多多使用Python,解決實際工作中的種種問題,做到學以致用。