python 正則分析nginx日誌

來源:互聯網
上載者:User

標籤:android   mobile   python   linux   

  有個需求要分析nginx日誌,也懶得去研究logstach之類的開源工具,乾脆直接寫一個指令碼,自己根據需求來實現:

先看日誌格式:我們跟別人的不太一樣,所以沒辦法了:

12.195.166.35 [10/May/2015:14:38:09 +0800] "list.xxxx.com" "GET /new/10:00/9.html?cat=0,0&sort=price_asc HTTP/1.0" 200 42164 "http://list.zhonghuasuan.com/new/10:00/8.html?cat=0,0&sort=price_asc" "Mozilla/5.0 (Linux; U; Android 4.4.2; zh-CN; H60-L02 Build/HDH60-L02) AppleWebKit/534.30 (KHTML, like Gecko) Version/4.0 UCBrowser/10.4.0.558 U3/0.8.0 Mobile Safari/534.30"


上面是我的日誌格式:

指令碼如下:

#!/usr/bin/env python#-*- coding:utf-8 –*-#Author:xiaoluo#QQ:942729042#date:2015:05:12import reimport syslog = sys.argv[1]ip = r"?P<ip>[\d.]*"date = r"?P<date>\d+"month = r"?P<month>\w+"year = r"?P<year>\d+"log_time = r"?P<time>\S+"timezone = r"""?P<timezone>                 [^\"]*         """name = r"""?P<name>\"            [^\"]*\"             """method = r"?P<method>\S+"request = r"?P<request>\S+"protocol = r"?P<protocol>\S+"status = r"?P<status>\d+"bodyBytesSent = r"?P<bodyBytesSent>\d+"refer = r"""?P<refer>\"             [^\"]*\"             """userAgent=r"""?P<userAgent>                .*               """#f = open(‘access1.log‘,‘r‘)#for logline in f.readlines():p = re.compile(r"(%s)\ \[(%s)/(%s)/(%s)\:(%s)\ (%s)\ (%s)\ (%s)\ (%s)\ (%s)\ (%s)\ (%s)\ (%s)\ (%s)" %(ip, date, month, year, log_time,timezone,name,method,request,protocol,status,bodyBytesSent,refer,userAgent), re.VERBOSE)def getcode():    codedic={}    f = open(log,‘r‘)    for logline in f.readlines():         matchs = p.match(logline)         if matchs !=None:             allGroups =matchs.groups()             status= allGroups[10]             codedic[status]=codedic.get(status,0) +1    return codedic    f.close()def getIP():    f = open(log,‘r‘)     IPdic={}    for logline in f.readlines():        matchs = p.match(logline)        if matchs !=None:            allGroups =matchs.groups()            IP=allGroups[0]             IPdic[IP] = IPdic.get(IP,0) +1    IPdic=sorted(IPdic.iteritems(),key=lambda c:c[1],reverse=True)    IPdic=IPdic[0:21:1]    return IPdic    f.close()def getURL():    f = open(log,‘r‘)    URLdic={}    for logline in f.readlines():        matchs = p.match(logline)        if matchs !=None:            allGroups =matchs.groups()            urlname = allGroups[6]             URLdic[urlname] = URLdic.get(urlname,0) +1    URLdic=sorted(URLdic.iteritems(),key=lambda c:c[1],reverse=True)    URLdic=URLdic[0:21:1]               return URLdicdef getpv():    f = open(log,‘r‘)    pvdic={}    for logline in f.readlines():        matchs = p.match(logline)        if matchs !=None:           allGroups =matchs.groups()           timezone=allGroups[4]           time = timezone.split(‘:‘)           minute = time[0]+":"+time[1]           pvdic[minute]=pvdic.get(minute,0) +1    pvdic=sorted(pvdic.iteritems(),key=lambda c:c[1],reverse=True)    pvdic=pvdic[0:21:1]    return pvdicif __name__==‘__main__‘:    print "網站監控狀況檢查狀態代碼"    print getcode()     print "網站訪問量最高的20個IP地址"    print getIP()    print "網站訪問最多的20個網站名"    print getURL()    print getpv()

這裡要指出的是。我當初是給正則匹配的時候單獨封裝一個函數的,這樣就省去了下面每個函數要開啟之前都要單獨開啟一遍檔案,但是我return的時候只能用列表的形式返回,結果清單太大把我的記憶體耗光了,我的是32G的記憶體,15G的日誌。

效果:

650) this.width=650;" src="http://s3.51cto.com/wyfs02/M01/6C/D0/wKioL1VTFI2jFdrgAAMgZdOMGos474.jpg" title="dasda.png" alt="wKioL1VTFI2jFdrgAAMgZdOMGos474.jpg" />

最後一個函數是統計每分鐘,訪問的數量

本文出自 “小羅” 部落格,請務必保留此出處http://xiaoluoge.blog.51cto.com/9141967/1651021

python 正則分析nginx日誌

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.