標籤:
在本文中,以‘哈‘來解釋作樣本解釋所有的問題,“哈”的各種編碼如下:
1. UNICODE (UTF8-16),C854;
2. UTF-8,E59388;
3. GBK,B9FE。
一、python中的str和unicode
一直以來,python中的中文編碼就是一個極為頭大的問題,經常拋出編碼轉換的異常,python中的str和unicode到底是一個什麼東西呢?
在python中提到unicode,一般指的是unicode對象。
例如‘哈哈‘的unicode對象為
- u‘/u54c8/u54c8‘
而str,是一個位元組數組,這個位元組數組表示的是對unicode對象編碼(可以是utf-8、gbk、cp936、GB2312)後的儲存的格式。
這裡它僅僅是一個位元組流,沒有其它的含義,如果你想使這個位元組流顯示的內容有意義,就必須用正確的編碼格式,解碼顯示。
例如:
在這裡 su 是unicode對象,
s_utf8是位元組數組,儲存的是unicode 經過utf8編碼後的位元組,‘/xe5/x93/x88/xe5/x93/x88‘
同樣,s_gbk儲存的是unicode經過gbk編碼後的位元組。
在上面print中,為什麼print s_utf8為亂碼,而print s_gbk就可以顯示的是中文?
因為print語句它的實現是將要輸出的內容傳送了作業系統,作業系統會根據系統的編碼對輸入的位元組流進行編碼,這就解釋了為什麼utf-8格式的字串“哈哈”,輸出的是“鍝堝搱”,因為‘/xe5/x93/x88/xe5/x93/x88‘用GB2312去解釋,其顯示的出來就是“鍝堝搱”。
這裡再強調一下,str記錄的是位元組數組,只是某種編碼的儲存格式,至於輸出到檔案或是列印出來是什麼格式,完全取決於其解碼的編碼將它解碼成什麼樣子。
這裡再對print進行一點補充說明:當將一個unicode對象傳給print時,在內部會將該unicode對象進行一次轉換,轉換成本地的預設編碼(這僅是個人猜測)
二、str和unicode對象的轉換
str和unicode對象的轉換,通過encode和decode實現,具體使用如下:
將GBK‘哈哈‘轉換成unicode,然後再轉換成UTF8
三、設定預設編碼 Setdefaultencoding
如的示範代碼所示:
當把s(gbk字串)直接編碼成utf-8的時候,將拋出異常,但是通過調用如下代碼:
- import sys
- reload(sys)
- sys.setdefaultencoding(‘gbk‘)
後就可以轉換成功,為什麼呢?
在python中str和unicode在編碼和解碼過程中,如果將一個str直接編碼成另一種編碼,會先把str解碼成unicode,採用的編碼為預設編碼,一般預設編碼是anscii,所以在上面範例程式碼中第一次轉換的時候會出錯,當設定當前預設編碼為‘gbk‘後,就不會出錯了。
至於reload(sys)是因為Python2.5 初始化後會刪除 sys.setdefaultencoding 這個方法,我們需要重新載入。
四、操作不同檔案的編碼格式的檔案
建立一個檔案test.txt,檔案格式用ANSI,內容為:
- abc中文
用python來讀取
- # coding=gbk
- print open("Test.txt").read()
結果:
- abc中文
把檔案格式改成UTF-8:
結果:
- abc涓菡孧
顯然,這裡需要解碼:
- # coding=gbk
- import codecs
- print open("Test.txt").read().decode("utf-8")
結果:
- abc中文
上面的test.txt我是用Editplus來編輯的,但當我用Windows內建的記事本編輯並存成UTF-8格式時,
運行時報錯:
- Traceback (most recent call last):
- File "ChineseTest.py", line 3, in
- print open("Test.txt").read().decode("utf-8")
- UnicodeEncodeError: ‘gbk‘ codec can‘t encode character u‘/ufeff‘ in position 0: illegal multibyte sequence
原來,某些軟體,如notepad,在儲存一個以UTF-8編碼的檔案時,會在檔案開始的地方插入三個不可見的字元(0xEF 0xBB 0xBF,即BOM)。
因此我們在讀取時需要自己去掉這些字元,python中的codecs module定義了這個常量:
- # coding=gbk
- import codecs
- data = open("Test.txt").read()
- if data[:3] == codecs.BOM_UTF8:
- data = data[3:]
- print data.decode("utf-8")
結果:
- abc中文
五、檔案的編碼格式和編碼聲明的作用
源檔案的編碼格式對字串的聲明有什麼作用呢?
這個問題困擾一直困擾了我好久,現在終於有點眉目了,檔案的編碼格式決定了在該源檔案中聲明的字串的編碼格式,例如:
- str = ‘哈哈‘
- print repr(str)
a.如果檔案格式為utf-8,則str的值為:‘/xe5/x93/x88/xe5/x93/x88‘(哈哈的utf-8編碼)
b.如果檔案格式為gbk,則str的值為:‘/xb9/xfe/xb9/xfe‘(哈哈的gbk編碼)
在第一節已經說過,python中的字串,只是一個位元組數組,所以當把a情況的str輸出到gbk編碼的控制台時,就將顯示為亂碼:鍝堝搱;而當把b情況下的str輸出utf-8編碼的控制台時,也將顯示亂碼的問題,是什麼也沒有,也許‘/xb9/xfe/xb9/xfe‘用utf-8解碼顯示,就是空白吧。>_<
說完檔案格式,現在來談談編碼聲明的作用吧,每個檔案在最上面的地方,都會用# coding=gbk 類似的語句聲明一下編碼,但是這個聲明到底有什麼用呢?到止前為止,我覺得它的作用也就是三個:
a、聲明源檔案中將出現非ascii編碼,通常也就是中文;
b、在進階的IDE中,IDE會將你的檔案格式儲存成你指定編碼格式。
c、決定源碼中類似於u‘哈‘這類聲明的將‘哈’解碼成unicode所用的編碼格式,也是一個比較容易讓人迷惑的地方,
看樣本:
- #coding:gbk
- ss = u‘哈哈‘
- print repr(ss)
- print ‘ss:%s‘ % ss
將這個些代碼儲存成一個utf-8文本,運行,你認為會輸出什麼呢?大家第一感覺肯定輸出的肯定是:
- u‘/u54c8/u54c8‘
- ss:哈哈
但是實際上輸出是:
- u‘/u935d/u581d/u6431‘
- ss:鍝堝搱
為什麼會這樣,這時候,就是編碼聲明在作怪了,在運行ss = u‘哈哈‘的時候,整個過程可以分為以下幾步:
1) 擷取‘哈哈‘的編碼:由檔案編碼格式確定,為‘/xe5/x93/x88/xe5/x93/x88‘(哈哈的utf-8編碼形式)
2) 轉成unicode編碼的時候,在這個轉換的過程中,對於‘/xe5/x93/x88/xe5/x93/x88‘的解碼,不是用utf-8解碼,而是用聲明編碼處指定的編碼GBK,將‘/xe5/x93/x88/xe5/x93/x88‘按GBK解碼,得到就是‘‘鍝堝搱‘‘,
這三個字的unicode編碼就是u‘/u935d/u581d/u6431‘,至止可以解釋為什麼print repr(ss)輸出的是u‘/u935d/u581d/u6431‘了。
好了,這裡有點繞,我們來分析下一個樣本:
- #-*- coding:utf-8 -*-
- ss = u‘哈哈‘
- print repr(ss)
- print ‘ss:%s‘ % ss
將這個樣本這次儲存成GBK編碼形式,運行結果,竟然是:
- UnicodeDecodeError: ‘utf8‘ codec can‘t decode byte 0xb9 in position 0: unexpected code byte
這裡為什麼會有utf8解碼錯誤呢?想想上個樣本也明白了,
轉換第一步,因為檔案編碼是GBK,得到的是‘哈哈‘編碼是GBK的編碼‘/xb9/xfe/xb9/xfe‘,
當進行第二步,轉換成unicode的時候,會用UTF8對‘/xb9/xfe/xb9/xfe‘進行解碼,而大家查utf-8的編碼錶會發現,utf8編碼錶(關於UTF-8解釋可參見字元編碼筆記:ASCII、UTF-8、UNICODE)中根本不存在,所以會報上述錯誤。
python 中文亂碼 問題深入分析