今天真的被编码问题一直困扰着,午休都没进行。也真的见识到了各种编码。例如:gbk,unicode、utf-8、ansi、gb2312等。
如果脚本程序中编码与文件编码不一致,就会报出UnicodedecodeError的错误。
try:
fileObj = open(os.path.join(path,filename),'r')
textLines = fileObj.readlines()
fileObj.close()
except IOError as err:
print('打开文件%s失败:%s'%(filename,err))
try:
fileObj = open(os.path.join(path,filename),'r',encoding='utf-8')
textLines = fileObj.readlines()
fileObj.close()
except IOError as err:
print('打开文件%s失败:%s'%(filename,err))
此方法可以解决一部分编码问题,但是却不是一劳永逸的,在下一批文件因其他功能扩展需要读写时,上面程序又报出UnicodedecodeError:gbk codec cant decode…
针对上面的编码问题没有得到很好的解决,决定专门写一个批量将文件夹下面的文件编码格式改为utf-8的脚本,网上查资料得知python的第三方模块chardet,但是要安装这个扩展库。
chardet是一个非常好的编码识别模块,
a.在外网下载好安装包chardet-3.0.4.tar.gz。
b.解压缩放在python安装路径\Python\Lib\site-packages下,命令切换到当前目录,执行python setup.py install。
c.安装完毕后import chardet仍然未成功
上面的安装步骤是没有问题的,我想应该是因为某个依赖没有安装吧,因此突然想到一个比较笨的方法:就是在外网机上执行pip chardet install先安装好,然后到安装目录下把关于chardet的安装目录chardet和chardet-3.0.4.dist-info拷贝到内网机\Python\Lib\site-packages下,再import chardet时竟然成功了。。。。
#!/usr/bin/python
# _*_ coding:utf-8 _*_
#更改文件编码,文件统一改为utf-8无BOM格式
import os
from chardet import detect
#文件夹目录
g_filedir = r'C:\Users\Desktop\nmg\SS'
def runcoding(path):
for filename in os.listdir(path):
if filename.endswith('.txt'):
with open(os.path.join(path,filename),'rb+') as fileObj:
fileContent = fileObj.read()
#判断编码格式
encodingtype = detect(fileContent)['encoding']
print(encodingtype)
#格式转换
fileContent = fileContent.decode(encodingtype).encode('utf8')
#写回文件
fileObj.seek(0)
fileObj.write(fileContent)
if __name__=="__main__":
runcoding(g_filedir)
针对情景2的问题,仍要继续排查编码的问题,根据运行的情景二的脚本时报出的错误在脚本中添加代码,打印出返回None的文件名。
#!/usr/bin/python
# _*_ coding:utf-8 _*_
#更改文件编码,文件统一改为utf-8无BOM格式
import os
from chardet import detect
#文件夹目录
g_filedir = r'C:\Users\Desktop\nmg\SS'
def runcoding(path):
for filename in os.listdir(path):
if filename.endswith('.txt'):
with open(os.path.join(path,filename),'rb+') as fileObj:
fileContent = fileObj.read()
#判断编码格式
encodingtype = detect(fileContent)['encoding']
#ansi编码检测结果为none
if encodingtype==None:
print(filename)
continue
#print(encodingtype)
#格式转换
fileContent = fileContent.decode(encodingtype).encode('utf8')
#写回文件
fileObj.seek(0)
fileObj.write(fileContent)
if __name__=="__main__":
runcoding(g_filedir)
然后定位到那个文件,记事本打开再另存为查看编码方式为ANSI,或者使用notpad++查看编码类型。
记事本默认是以ANSI编码保存文本文档的,而正是这种编码存在的bug招致了上述怪现象。假如保存时选择Unicode、Unicode (Big Endian)、UTF-8编码,就正常了。此外,假如以ANSI编码保存含有某些特别符号的文本文档,再次打开后符号也会变成英文问号。
这里可以得知,文件以ansi编码时decode()函数返回的事None。
chardet模块中的chardet.detect()函数可以检测编码。返回结果如下:
data = '我最美'.encode('gbk')
chardet.detect(data)
Out[103]: {'confidence': 0.73, 'encoding': 'ISO-8859-1', 'language': ''}
编码问题最困扰人,好在今天顺利解决了,各个省份的数据也都按照格式要求修改完毕,已经上报到各省份,晚上就花点时间整理以下喽。
每天进步一点点,开心一点点,幸福一点点!