Time of Update: 2016-06-10
用錯誤碼來表示是否出錯十分不便,因為函數本身應該返回的正常結果和錯誤碼混在一起,造成調用者必須用大量的代碼來判斷是否出錯:def foo(): r = some_function() if r==(-1): return (-1) # do something return rdef bar(): r = foo() if r==(-1): print 'Error' else: pass但是Go就是這麼乾的,哈哈!python 中還是用try … except…
Time of Update: 2016-06-10
在最初學習PYTHON的時候,只知道有DOM和SAX兩種解析方法,但是其效率都不夠理想,由於需要處理的檔案數量太大,這兩種方式耗時太高無法接受。在網路搜尋後發現,目前應用比較廣泛,且效率相對較高的ElementTree也是一個比較多人推薦的演算法,於是拿這個演算法來實測對比,ElementTree也包括兩種實現,一個是普通ElementTree(ET),一個是ElementTree.iterparse(ET_iter)。本文將對DOM、SAX、ET、ET_iter四種方式進行橫向對比,通過處理相
Time of Update: 2016-06-10
序列化Serialization1. 設定一個新的環境在我們開始之前, 我們首先使用virtualenv要建立一個新的虛擬環境,以使我們的配置和我們的其他項目配置徹底分開。$mkdir ~/env$virtualenv ~/env/tutorial$source ~/env/tutorial/bin/avtivate現在我們處在一個虛擬環境中,開始安裝我們的依賴包$pip install django$pip install djangorestframework$pip install
Time of Update: 2016-06-10
首先確保裝了Python,我裝的是2.x版本,對了,我的作業系統是WIN7,其實對於Python來說,什麼作業系統並不重要。Python內建了一個簡單的HTTP伺服器,只需要在命令列下面敲一行命令,一個HTTP伺服器就起來了:python -m SimpleHTTPServer
Time of Update: 2016-06-10
首先,Python 標準庫中的 urllib2 模組提供了你所需要的大多數 HTTP 功能,但是它的 API 不友好。它是為另一個時代、另一個互連網所建立的。它需要巨量的工作,甚至包括各種方法覆蓋,來完成最簡單的任務,所以學習reuqests模組,比較簡潔好用(以後慢慢會學習scapy,更強大的庫),安裝就不用說了1 匯入模組 >>> import requests2 直觀感受一下發送請求的簡潔 >>> r = requests.get('your url') >>> r =
Time of Update: 2016-06-10
簡介:記錄一下關於 Python 環境軟體包的一些安裝步驟1、升級 Python 到 2.7.10( 預設 2.6.6 )shell > yum -y install epel-releaseshell > yum -y install gcc wget readline-devel zlib-devel openssl-develshell > wget https://www.python.org/ftp/python/2.7.10/Python-2.7.10.tgzshell > tar
Time of Update: 2016-06-10
requests是python的一個HTTP用戶端庫,跟urllib,urllib2類似,那為什麼要用requests而不用urllib2呢?官方文檔中是這樣說明的:python的標準庫urllib2提供了大部分需要的HTTP功能,但是API太逆天了,一個簡單的功能就需要一大堆代碼。我也看了下requests的文檔,確實很簡單,適合我這種懶人。下面就是一些簡單指南。插播個好訊息!剛看到requests有了中文翻譯版,建議英文不好的看看,內容也比我的部落格好多了,具體連結是:http://cn.p
Time of Update: 2016-06-10
推薦閱讀:使用python檢測主機存活連接埠及檢查存活主機下面給大家分享使用python語言實現擷取主機名稱根據連接埠殺死進程代碼。ip=os.popen("ifconfig eth0|grep 'inet addr'|awk -F ':' '{print $2}'|awk '{print $1}'")ip=ip..read().strip()pid=os.popen("netstat -anp|grep 8998 |awk '{print $7}'").read().split('/')[0]
Time of Update: 2016-06-10
Python中的單元測試我們先來回顧一下Python中的單元測試方法。下面是一個 Python的單元測試簡單的例子:假如我們開發一個除法的功能,有的同學可能覺得很簡單,代碼是這樣的:def division_funtion(x, y): return x / y但是這樣寫究竟對還是不對呢,有些同學可以在代碼下面這樣測試:def division_funtion(x, y): return x / y if __name__ == '__main__': print
Time of Update: 2016-06-10
Python2.7Mac OS抓取的是電影天堂裡面最新電影的頁面。連結地址: http://www.dytt8.net/html/gndy/dyzz/index.html擷取頁面的中電影詳情頁連結import urllib2import osimport reimport string# 電影URL集合movieUrls = []# 擷取電影列表def queryMovieList(): url = 'http://www.dytt8.net/html/gndy/dyzz/index.html'
Time of Update: 2016-06-10
mechanize是對urllib2的部分功能的替換,能夠更好的類比瀏覽器行為,在web存取控制方面做得更全面。結合beautifulsoup和re模組,可以有效解析web頁面,我比較喜歡這種方法。 下面主要總結了使用mechanize類比瀏覽器的行為和幾個例子(Google搜尋,百度搜尋和人人網登入等)1.初始化並建立一個瀏覽器對象
Time of Update: 2016-06-10
【簡介】django-admin.py是Django的一個用於管理工作的命令列工具。本文將描述它的大概用法。另外,在每一個Django
Time of Update: 2016-06-10
urlliburllib模組是python3的URL處理包其中:1、urllib.request主要是開啟和閱讀urls個人平時主要用的1:開啟對應的URL:urllib.request.open(url)用urllib.request.build_opener([handler, ...]),來偽裝成對應的瀏覽器import urllib#要偽裝成的瀏覽器(我這個是用的chrome)headers = ('User-Agent','Mozilla/5.0 (Windows NT 6.1;
Time of Update: 2016-06-10
python代碼實現冒泡排序代碼其實很簡單,具體代碼如下所示:代碼Code highlighting produced by Actipro CodeHighlighter (freeware)http://www.CodeHighlighter.com/--> 1 def bubbleSort(numbers):for j in xrange(len(numbers),-1,-1):for i in xrange(0,j-1,1):if numbers[i] >
Time of Update: 2016-06-10
在python中調用fortran代碼,要用到f2py這個程式。它的項目首頁在此。現在該項目已經合并到numpy中了,先安裝python再裝好numpy,就可以使用f2py。不過對windows平台必須使用gnu的fortran編譯器gfortran,在此下載。裝完了python,numpy和gfortran這三樣東西之後,還必須更改如下幾個環境變數: 1.在$PATH中添加gfortran的路徑,我的是c:\Program Files\pythonxy\mingw\bin\
Time of Update: 2016-06-10
在網上看到一篇關於隱馬爾科夫模型的介紹,覺得簡直不能再神奇,又在網上找到大神的一篇關於如何用隱馬爾可夫模型實現中文拼音輸入的部落格,無奈大神沒給可以啟動並執行代碼,只能純手動網上找到了結巴分詞的詞庫,根據此訓練得出隱馬爾科夫模型,用維特比演算法實現了一個簡單的拼音IME。githuh地址:https://github.com/LiuRoy/Pinyin_Demo原理簡介隱馬爾科夫模型抄一段網上的定義:隱馬爾可夫模型 (Hidden Markov Model)
Time of Update: 2016-06-10
本文執行個體講述了Python指令碼簡單實現開啟預設瀏覽器登入人人和開啟QQ的方法。分享給大家供大家參考,具體如下:每天開啟電腦第一件事應該就是開啟人人刷一下,然後登上QQ。每次都這樣很麻煩,於是寫了一個指令碼,每次雙擊即可自動完成這兩個工作。注意:需要在人人登入時選擇“下次自動登入”,QQ也要選擇自動登入。其實感覺這些設定都是沒必要的,都可以用指令碼完成,但是本人比較水,就偷了懶,沒有去查資料。代碼如下:todo.pyw:import webbrowser import os
Time of Update: 2016-06-10
學習Python也有一段時間了,各種理論知識大體上也算略知一二了,今天就進入實戰演練:通過Python來編寫一個拉勾網薪資調查的小爬蟲。第一步:分析網站的請求過程我們在查看拉勾網上的招聘資訊的時候,搜尋Python,或者是PHP等等的崗位資訊,其實是向伺服器發出相應請求,由伺服器動態響應請求,將我們所需要的內容通過瀏覽器解析,呈現在我們的面前。可以看到我們發出的請求當中,FormData中的kd參數,就代表著向伺服器請求關鍵詞為Python的招聘資訊。分析比較複雜的頁面請求與響應資訊,推薦使用F
Time of Update: 2016-06-10
先來看一個簡單的利用python調用sqlplus來輸出結果的例子:import osimport sysfrom subprocess import Popen, PIPE sql = """set linesize 400col owner for a10col object_name for a30 select owner, object_name from dba_objects where
Time of Update: 2016-06-10
本文執行個體講述了Python指令碼實現蝦米網簽到功能的方法。分享給大家供大家參考,具體如下:概述這個指令碼完成了自動登入蝦米網、簽到的功能。大致要用到urllib、urllib2、cookielib這幾個模組。其實就是用python實現向指定的url去post資料。至於我怎麼知道在瀏覽器裡面登入和簽到時瀏覽器都向伺服器post了什麼資料的問題,可以用強大的chrome:F12->Network裡面可以看得到。有的伺服器登入成功後會讓用戶端瀏覽器跳轉或者立即重新整理一次頁面等等,會把登入時向伺服