之前看过Python学习的经验,说以工程为导向学习。
自己分析了一下,一般接触Python的都有一定的其他语言基础,对于程序设计的基本逻辑,语法都有一个大概的了解。而Python这种脚本语言,没有过于独特的语法,在一定的其他语言的基础上,更是可以直接上手的。
之前看Python简明教程,半天没有进度。正好遇上Python爬虫项目,直接上手,方便快捷。
网站:http://acm.njupt.edu.cn/welcome.do?method=index,正值系统更新,于是写一个备份代码的爬虫。
urllib库:
这个库封装了通过URL与网络服务器通信的方法,包括HTTP的request,response等等,目前为止基本够用。
re库:
即regularexpress,正则表达式库。用来在HTML文档中检索信息。
首先通过HTTP协议,向目标服务器提交request请求,然后接受response应答。我们再从应答中,得到我们需要的内容:用户cookie和代码。最后新建本地文件,把他们放进去即可。
Python果然是短平快的语言,如下三行搞定:
myUrl ="http://acm.njupt.edu.cn/acmhome/index"#目标页面 req=urllib2.Request(myUrl)#用URL得到request对象 myResponse = urllib2.urlopen(req)#通过urlopen()函数发送request,得到返回的response myPage = myResponse.read()#在response中读取页面信息
分析页面我们看到,要备份代码需要提交用户名和密码,而且提交的页面不是主页,而是登陆页。根据HTTP的知识,需要用POST方法提交包含表单信息的request。使用chrome开发人员工具,检测到提价的表达包含如下内容。
这在Python中也好实现:
myUrl ="http://acm.njupt.edu.cn/acmhome/login.do"#url地址改为登入页 self.postdata = urllib.urlencode({ 'userName':self.userName, 'password':self.passWord })#{}中为Python的字典结构数据,传入username和password #urlencode()函数把字典结构编码为特定的data类 req=urllib2.Request( url = myUrl, data = self.postdata ) #给Request传入URL以及编码好的data数据 myResponse = urllib2.urlopen(req) myPage = myResponse.read()
之前的还少考虑了一个东西,就是登入后要访问网站的其他页面时,需要用到登入的cookie。Python中没有特殊定义的访问貌似是不保留cookie的。于是我们要从写一个可保留cookie的HTTP通信方式。
首先是Python中的几个概念:
opener:用于通信的对象,之前代码中urllib.urlopen()使用系统默认的opener,等价于default_opener.urlopen()
handler:一个opener包含多个hander,用于处理通信间的各种子问题,包括cookie问题。
于是,上面处理cookie的方法就是,重写一个opener,给予其可处理cookie的handler。
cookie_support =urllib2.HTTPCookieProcessor(cookielib.CookieJar()) #新建cookie_handler opener =urllib2.build_opener(cookie_support,urllib2.HTTPHandler) #用cookie_handler建立cookie_opener urllib2.install_opener(opener) #设定为默认opener
到此,我们可以实现登入权限获取。
我们要从首页开始,找到代码页面。本来直接获取URL即可。不过发现代码页面URL如下:
这个页面包含了时间和登入信息的未知编码,应该是通过转义的。这里的解决方法是通过已知页面获取URL而不是手动输入。
分析页面后,可以如下获得代码页面:
首页-->用户信息-->通过代码-->’G++|GCC|JAVA’字段超链接,如下
于是,解析获得的HTML,得到超链接:
myItem = re.findall('<ahref=\"/acmhome/solutionCode\.do\?id\=.*?\"\ ',myPage,re.S) for item in myItem: url='http://acm.njupt.edu.cn/acmhome/solutionCode.do?id='+item[37:len(item)-2]
如上,可以看出网站是用XML来存储,转义为HTML,于是我们要替换文本中的转义标签,得到正常文本:
class Tool: A= re.compile(" \;") B= re.compile("\<BR\>") C= re.compile("<\;") D= re.compile(">\;") E= re.compile(""\;") F= re.compile("&") G= re.compile("Times\ New\ Roman\"\>") H= re.compile("\</font\>") I= re.compile("'") J= re.compile("语言:(.*)?face=\"",re.DOTALL) def replace_char(self,x): x=self.A.sub(" ",x) x=self.B.sub("\r",x) x=self.C.sub("<",x) x=self.D.sub(">",x) x=self.E.sub("\"",x) x=self.F.sub("&",x) x=self.G.sub("",x) x=self.H.sub("",x) x=self.I.sub("\'",x) x=self.J.sub("",x) return x
*注意,Python中字符串有替换函数,str.replace(替换字符,原字符);不过如果要根据正则表达式来替换,需要用re模块的re.sub()函数才行,replace不能使用正则表达式。
*还有,replace返回替换的字符串,原始字符串没有任何改变
首先要得到代码的中文题目作为文件名,不过这在自己的代码页看不到,只能到代码主页去找。找到后抓取<title>中的字段作为用户名即可。
tname=re.findall('title\>.*?\</title',p,re.S) f =open(tname[0][6:len(tname[0])-7]+'_'+sname[8:len(sname)-8]+'.txt','w+') f.write(self.mytool.replace_char(mytem[0])) f.close()
# -*- coding: cp936 -*- #copyright by B08020129 import urllib2 import urllib import re import thread import time import cookielib cookie_support =urllib2.HTTPCookieProcessor(cookielib.CookieJar()) opener = urllib2.build_opener(cookie_support,urllib2.HTTPHandler) urllib2.install_opener(opener) class Tool: A= re.compile(" \;") B= re.compile("\<BR\>") C= re.compile("<\;") D= re.compile(">\;") E = re.compile(""\;") F = re.compile("&") G =re.compile("Times\ New\ Roman\"\>") H= re.compile("\</font\>") I= re.compile("'") J= re.compile("语言:(.*)?face=\"",re.DOTALL) def replace_char(self,x): x=self.A.sub(" ",x) x=self.B.sub("\r",x) x=self.C.sub("<",x) x=self.D.sub(">",x) x=self.E.sub("\"",x) x=self.F.sub("&",x) x=self.G.sub("",x) x=self.H.sub("",x) x=self.I.sub("\'",x) x=self.J.sub("",x) return x class HTML_Model: def __init__(self,u,p): self.userName = u self.passWord =p self.mytool = Tool() self.page = 1 self.postdata = urllib.urlencode({ 'userName':self.userName, 'password':self.passWord }) def GetPage(self): myUrl = "http://acm.njupt.edu.cn/acmhome/login.do" req=urllib2.Request( url = myUrl, data = self.postdata ) myResponse = urllib2.urlopen(req) myPage = myResponse.read() flag = True while flag: myUrl="http://acm.njupt.edu.cn/acmhome/showstatus.do?problemId=null&contestId=null&userName="+self.userName+"&result=1&language=&page="+str(self.page) #print(myUrl) myResponse = urllib2.urlopen(myUrl) myPage = myResponse.read() st="\<a\ href\=.*?G\+\+" next = re.search(st,myPage) if next: flag = True else: flag = False myItem = re.findall('<ahref=\"/acmhome/solutionCode\.do\?id\=.*?\"\ ',myPage,re.S) for item in myItem: #print(item) url='http://acm.njupt.edu.cn/acmhome/solutionCode.do?id='+item[37:len(item)-2] #print(url) myResponse =urllib2.urlopen(url) myPage = myResponse.read() mytem = re.findall('语言.*?</font>.*?Times NewRoman\"\>.*?\</font\>',myPage,re.S) #print(mytem) sName = re.findall('源代码--.*?</strong',myPage,re.S) for sname in sName: #print(sname[2:len(sname)-8]) name="http://acm.njupt.edu.cn/acmhome/problemdetail.do?&method=showdetail&id="+sname[8:len(sname)-8]; #print(name) p=urllib2.urlopen(name).read() #print(p) tname=re.findall('title\>.*?\</title',p,re.S) print(tname[0][6:len(tname[0])-7]+'_'+sname[8:len(sname)-8]) f =open(tname[0][6:len(tname[0])-7]+'_'+sname[8:len(sname)-8]+'.txt','w+') f.write(self.mytool.replace_char(mytem[0])) f.close() print('done!') self.page = self.page+1 print u'plz input the name' u=raw_input() print u'plz input password' p=raw_input() myModel =HTML_Model(u,p) myModel.GetPage()
以及文件中的正常代码:
下一步用更好地方法试着一键注册及提交所有代码。