In[1]
# 安装beatifulSoup4
# beatifulSoup4是一个著名的爬虫框架
!pip install bs4
In[2]
# 安装openpyxl
# xlwt,xlrd是Python写Excel文件用的package.
# 有严重的兼容性问题, 在windows上请尽量使用VSTO!! 在Python 3.5环境中可凑活使用openpyxl
!pip install openpyxl
In[3]
#载入必要package
import sys
import time
from bs4 import BeautifulSoup
import re
import urllib
import openpyxl
In[4]
#定义一个方法, 获得页面全部内容
def askURL(url):
request = urllib.request.Request(url)#发送请求
try:
response = urllib.request.urlopen(request)#取得响应
html= response.read()#获取网页内容
# print (html)
except urllib.error.URLError as e:
if hasattr(e,"code"):
print (e.code)
if hasattr(e,"reason"):
print (e.reason)
return html
In[5]
#获取相关内容
#Warning: 解析页面的代码和页面结构强相关, 当页面html结构发生变化的时候必须同步升级, 否则当场作废
def getData(baseurl):
findLink=re.compile(r'')#找到影片详情链接
findImgSrc=re.compile(r'(.*)')#找到片名
#找到评分
findRating=re.compile(r'(\d*)人评价')
#找到概况
findInq=re.compile(r'(.*)')
#找到影片相关内容:导演,主演,年份,地区,类别
findBd=re.compile(r'(.*?)
',re.S)
#去掉无关内容
remove=re.compile(r' |\n||\.*')
datalist=[]
for i in range(0,10):
url=baseurl+str(i*25)
html=askURL(url)
soup = BeautifulSoup(html, "html.parser")
for item in soup.find_all('div',class_='item'):#找到每一个影片项
data=[]
item=str(item)#转换成字符串
# 影片详情链接
link=re.findall(findLink,item)[0]
data.append(link)#添加详情链接
imgSrc=re.findall(findImgSrc,item)[0]
data.append(imgSrc)#添加图片链接
titles=re.findall(findTitle,item)
#片名可能只有一个中文名,没有外国名
if(len(titles)==2):
ctitle=titles[0]
data.append(ctitle)#添加中文片名
otitle=titles[1].replace("/","")#去掉无关符号
data.append(otitle)#添加外国片名
else:
data.append(titles[0])#添加中文片名
data.append(' ')#留空
rating=re.findall(findRating,item)[0]
data.append(rating)#添加评分
judgeNum=re.findall(findJudge,item)[0]
data.append(judgeNum)#添加评论人数
inq=re.findall(findInq,item)
#可能没有概况
if len(inq)!=0:
inq=inq[0].replace("。","")#去掉句号
data.append(inq)#添加概况
else:
data.append(' ')#留空
bd=re.findall(findBd,item)[0]
bd=re.sub(remove,"",bd)
bd=re.sub('
(\s+)?'," ",bd) #去掉
bd=re.sub('/', " ",bd)#替换/
data.append(bd.strip())
datalist.append(data)
time.sleep(5)
return datalist ')
#找到评价人数
findJudge=re.compile(r'
In[6]
#将相关数据写入excel中
def saveData(datalist,savepath):
book=openpyxl.Workbook()
sheet = book.create_sheet("豆瓣电影Top250")
#sheet=book.add_sheet('豆瓣电影Top250',cell_overwrite_ok=True)
col=('电影详情链接','图片链接','影片中文名','影片外国名', '评分','评价数','概况','相关信息')
sheet.append(col) #添加列头
for i in range(0,250):
data=datalist[i]
for j in range(0,8):
sheet.cell(row = (i+2),column = (j+1),value = data[j])
#openpyxl中的单元格计数从1开始, 加上第一行是列头, 要多跳一个
#openpyxl中的计数和Excel内的计数方式一致, 但和常规编程从0开始的方式相左
book.save(savepath) #保存
In[7]
def main():
print ("开始爬取......")
baseurl='https://movie.douban.com/top250?start='
datalist=getData(baseurl)
savapath=u'/home/aistudio/work/豆瓣电影Top250.xlsx'
saveData(datalist,savapath)
In[8]
main()
print ("爬取完成,请查看.xlsx文件")
开始爬取...... 爬取完成,请查看.xlsx文件
不要使用pandas来处理Excel文件, 因为还是依赖xlrd的. 请直接使用openpyxl
xlrd/xlwt不能处理Excel 2007之后的格式, 也就是说最大一张数据表仅支持65535行.
In[9]
from pandas import Series,DataFrame
import pandas as pd
#打印一些样例数据观察
from openpyxl import load_workbook
wb = load_workbook(filename = 'work/豆瓣电影Top250.xlsx')
sheet_ranges = wb['豆瓣电影Top250']
#将第一列的前几行打印出来
for i in range (1,8):
print(sheet_ranges['A'+i.__str__()].value)
#如果没有问题, 就将该工作表转为dataframe格式
df = DataFrame(sheet_ranges.values)
电影详情链接 https://movie.douban.com/subject/1292052/ https://movie.douban.com/subject/1291546/ https://movie.douban.com/subject/1292720/ https://movie.douban.com/subject/1295644/ https://movie.douban.com/subject/1292063/ https://movie.douban.com/subject/1292722/
然后可以在左侧"文件夹"中, 找到生成的Excel文件, 并将该文件下载至本地, 进行进一步处理.
打开可以看到内容, 再对评分和评价数进行统计分析