如觉得博主文章写的不错或对你有所帮助的话,还望大家多多支持呀!关注、点赞、收藏、评论。
因为涉及到中文,所以必然地涉及到了编码的问题,这一次借这个机会算是彻底搞清楚了。
问题要从文字的编码讲起。原本的英文编码只有0~255,刚好是8位1个字节。为了表示各种不同的语言,自然要进行扩充。中文的话有GB系列。可能还听说过Unicode和UTF-8,那么,它们之间是什么关系呢?
Unicode是一种编码方案,又称万国码,可见其包含之广。但是具体存储到计算机上,并不用这种编码,可以说它起着一个中间人的作用。你可以再把Unicode编码(encode)为UTF-8,或者GB,再存储到计算机上。UTF-8或者GB也可以进行解码(decode)还原为Unicode。
在python中Unicode是一类对象,表现为以u打头的,比如u’中文’,而string又是一类对象,是在具体编码方式下的实际存在计算机上的字符串。比如utf-8编码下的’中文’和gbk编码下的’中文’,并不相同。可以看如下代码:
str=u'中文'
str1=str.encode('utf8')
str2=str.encode('gbk')
print repr(str)
u'\u4e2d\u6587'
print repr(str1)
'\xe4\xb8\xad\xe6\x96\x87'
print repr(str2)
'\xd6\xd0\xce\xc4'
可以看到,其实存储在计算机中的只是这样的编码,而不是一个一个的汉字,在print的时候要知道当时是用的什么样的编码方式,才能正确的print出来。有一个说法提得很好,python中的Unicode才是真正的字符串,而string是字节串
既然有不同的编码,那么如果在代码文件中直接写string的话,那么它到底是哪一种编码呢?这个就是由文件的编码所决定的。文件总是以一定的编码方式保存的。而python文件可以写上coding的声明语句,用来说明这个文件是用什么编码方式保存的。如果声明的编码方式和实际保存的编码方式不一致就会出现异常。可以见下面例子: 以utf-8保存的文件声明为gbk
#coding:gbk
str=u'汉'
str1=str.encode('utf8')
str2=str.encode('gbk')
str3='汉'
print repr(str)
print repr(str1)
print repr(str2)
print repr(str3)
提示错误 File “test.py”, line 1 SyntaxError: Non-ASCII character ‘\xe6’ in file test.py on line 1, but no encodi ng declared; see http://www.python.org/peps/pep-0263.html for details 改为
#coding:utf8
str=u'汉'
str1=str.encode('utf8')
str2=str.encode('gbk')
str3='汉'
print repr(str)
print repr(str1)
print repr(str2)
print repr(str3)
输出正常结果 u’\u6c49’ ‘\xe6\xb1\x89’ ‘\xba\xba’ ‘\xe6\xb1\x89’
其实用python爬取网页很简单,只有简单的几句话
import urllib2
page=urllib2.urlopen('url').read()
这样就可以获得到页面的内容。接下来再用正则匹配去匹配所需要的内容就行了。
但是,真正要做起来,就会有各种各样的细节问题。
这是一个需要登录认证的网站。也不太难,只要导入cookielib和urllib库就行。
import urllib,urllib2,cookielib
cookiejar = cookielib.CookieJar()
urlOpener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookiejar))
这样就装载进一个cookie,用urlOpener去open登录以后就可以记住信息。
如果只是做到上面的程度,不对open进行包装的话,只要网络状况有些起伏,就直接抛出异常,退出整个程序,是个很不好的程序。这个时候,只要对异常进行处理,多试几次就行了:
def multi_open(opener,*arg):
while True:
retryTimes=20
while retryTimes>0:
try:
return opener.open(*arg)
except:
print '.',
retryTimes-=1
其实正则匹配并不算是一个特别好的方法,因为它的容错性很不好,网页要完全统一。如果有稍微的不统一,就会失败。后来看到说有根据xpath来进行选取的,下次可以尝试一下。
写正则其实是有一定技巧的:
这次的数据是放进Excel的。到后面才意识到如果放进数据库的话,可能就没有那么多事了。但是已经写到一半,难以回头了。
搜索Excel,可以得出几个方案来,一个是用xlrt/xlwt库,这个不管电脑上是否安装了Excel,都可以运行,但只能是xls格式的。还有一个是直接包装了com,需要电脑上安装了软件才行。我采用的是前一种。
基本的读写没有问题。但是数据量一大起来,就有问题了。
结合以上两点,最终采取了这么一个策略,如果行数是1000的倍数,进行一次flush,如果行数超过65536,新开一个sheet,如果超过3个sheet,则新建一个文件。为了方便,把xlwt包装了一下
#coding:utf-8#
import xlwt
class XLS:
'''a class wrap the xlwt'''
MAX_ROW=65536
MAX_SHEET_NUM=3 Python学习交流群:780296133
def __init__(self,name,captionList,typeList,encoding='utf8',flushBound=1000):
self.name=name
self.captionList=captionList[:]
self.typeList=typeList[:]
self.workbookIndex=1
self.encoding=encoding
self.wb=xlwt.Workbook(encoding=self.encoding)
self.sheetIndex=1
self.__addSheet()
self.flushBound=flushBound
def __addSheet(self):
if self.sheetIndex != 1:
self.wb.save(self.name+str(self.workbookIndex)+'.xls')
if self.sheetIndex>XLS.MAX_SHEET_NUM:
self.workbookIndex+=1
self.wb=xlwt.Workbook(encoding=self.encoding)
self.sheetIndex=1
self.sheet=self.wb.add_sheet(self.name.encode(self.encoding)+str(self.sheetIndex))
for i in range(len(self.captionList)):
self.sheet.write(0,i,self.captionList[i])
self.row=1
def write(self,data):
if self.row>=XLS.MAX_ROW:
self.sheetIndex += 1
self.__addSheet()
for i in range(len(data)):
if self.typeList[i]=="num":
try:
self.sheet.write(self.row,i,float(data[i]))
except ValueError:
pass
else:
self.sheet.write(self.row,i,data[i])
if self.row % self.flushBound == 0:
self.sheet.flush_row_data()
self.row+=1
def save(self):
self.wb.save(self.name+str(self.workbookIndex)+'.xls')
由于网页也有自己独特的转义字符,在进行正则匹配的时候就有些麻烦。在官方文档中查到一个用字典替换的方案,私以为不错,拿来做了一些扩充。其中有一些是为保持正则的正确性。
html_escape_table = {
"&": "&",
'"': """,
"'": "'",
">": ">",
"<": "<",
u"·":"·",
u"°":"°",
#regular expression
".":r"\.",
"^":r"\^",
"$":r"\$",
"{":r"\{",
"}":r"\}",
"\\":r"\\",
"|":r"\|",
"(":r"\(",
")":r"\)",
"+":r"\+",
"*":r"\*",
"?":r"\?",
}
def html_escape(text):
"""Produce entities within text."""
tmp="".join(html_escape_table.get(c,c) for c in text)
return tmp.encode("utf-8")