中文編碼問題是用中文的程式員經常頭大的問題,在python下也是如此,那麼應該怎麼理解和解決python的編碼問題呢?
我們要知道python內部使用的是unicode編碼,而外部卻要面對千奇百怪的各種編碼,比如作為中國程式經常要面對的gbk,gb2312,utf8等,那這些編碼是怎麼轉換成內部的unicode呢?
首先我們先看一下原始碼檔案中使用字串的情況。原始碼檔案作為文字檔就必然是以某種編碼形式儲存代碼的,python預設會認為原始碼檔案是asci編碼,比如說代碼中有一個變數賦值:
s1=’a’
print s1
python認為這個’a'就是一個asci編碼的字元。在僅僅使用英文字元的情況下一切正常,但是如果用了中文,比如:
s1=’哈’
print s1
這個代碼檔案被執行時就會出錯,就是編碼出了問題。python預設將代碼檔案內容當作asci編碼處理,但asci編碼中不存在中文,因此拋出異常。
解決問題之道就是要讓python知道檔案中使用的是什麼編碼形式,對於中文,可以用的常見編碼有utf-8,gbk和gb2312等。只需在代碼檔案的最前端添加如下:
# -*- coding: utf-8 -*-
這就是告知python我這個檔案裡的文本是用utf-8編碼的,這樣,python就會依照utf-8的編碼形式解讀其中的字元,然後轉換成unicode編碼內部處理使用。
不過,如果你在Windows控制台下運行此代碼的話,雖然程式是執行了,但螢幕上列印出的卻不是哈字。這是由於python編碼與控制台編碼的不一致造成的。Windows下控制台中的編碼使用的
是gbk,而在代碼中使用的utf-8,python按照utf-8編碼列印到gbk編碼的控制台下自然就會不一致而不能列印出正確的漢字。
解決辦法一個是將原始碼的編碼也改成gbk,也就是代碼第一行改成:
# -*- coding: gbk -*-
另一種方法是保持源碼檔案的utf-8不變,而是在’哈’前面加個u字,也就是:
s1=u’哈’
print s1
這樣就可以正確列印出’哈’字了。
這裡的這個u表示將後面跟的字串以unicode格式儲存。python會根據代碼第一行標稱的utf-8編碼識別代碼中的漢字’哈’,然後轉換成unicode對象。如果我們用type查看一下’哈’的資料類
型type(‘哈’),會得到<type ‘str’>,而type(u’哈’),則會得到<type ‘unicode’>,也就是在字元前面加u就表明這是一個unicode對象,這個字會以unicode格式存在於記憶體中,而如果不加u
,表明這僅僅是一個使用某種編碼的字串,編碼格式取決於python對源碼檔案編碼的識別,這裡就是utf-8。
Python在向控制台輸出unicode對象的時候會自動根據輸出環境的編碼進行轉換,但如果輸出的不是unicode對象而是一般字元串,則會直接按照字串的編碼輸出字串,從而出現上面的現
象。
使用unicode對象的話,除了這樣使用u標記,還可以使用unicode類以及字串的encode和decode方法。
unicode類的建構函式接受一個字串參數和一個編碼參數,將字串封裝為一個unicode,比如在這裡,由於我們用的是utf-8編碼,所以unicode中的編碼參數使用’utf-8′將字元封裝為
unicode對象,然後正確輸出到控制台:
s1=unicode(‘哈’, ‘utf-8′)
print s1
另外,用decode函數也可以將一個一般字元串轉換為unicode對象。很多人都搞不明白python字串的decode和encode函數都是什麼意思。這裡簡要說明一下。
decode是將一般字元串按照參數中的編碼格式進行解析,然後產生對應的unicode對象,比如在這裡我們代碼用的是utf-8,那麼把一個字串轉換為unicode就是如下形式:
s2=’哈’.decode(‘utf-8′)
這時,s2就是一個儲存了’哈’字的unicode對象,其實就和unicode(‘哈’, ‘utf-8′)以及u’哈’是相同的。
那麼encode正好就是相反的功能,是將一個unicode對象轉換為參數中編碼格式的一般字元,比如下面代碼:
s3=unicode(‘哈’, ‘utf-8′).encode(‘utf-8′)
s3現在又變回了utf-8的’哈’。