python 爬虫抓取网页数据导出excel_小猪的Python学习之旅 —— 14.爬虫实战:抓取豆瓣音乐Top 250数据存到Excel中...

一句话概括本文:

利用Excel存储爬到的抓取豆瓣音乐Top 250数据信息,还有读Excel。

引言:

失踪人口回归,最近比较迷茫,不知道是回头深究Android,还是继续

学Python,Android是旧爱,Python是新欢;Android应用层折腾来

折腾去,无非:改UI,写控件,换下库,换下架构...以前一直想着写

自己的项目,然后各种加东西优化,然后发现自己却没有了当年的热情,

唉!相比Python,随手就是一爬虫,批处理类的脚本,实用性高太多,

只是Python没有引路人,都是自己一点点摸索,见步走步吧!

AAffA0nNPuCLAAAAAElFTkSuQmCC

之前在写爬小姐姐脚本时候,就遇到过一个如何存储爬取到数据的问题,

比如一个系列的套图链接应该放到特定的文件夹,我之前的操作都是

通过下面这样的格式写入到一个txt文件中:目录~链接

然后读取txt文件,获得字符串,然后通过split("~")来进行分隔,

split("~")[0]是目录,split("~")[1]是路径,挺low的,

如果是涉及到三个维度以上的再拼多一个~,在上上一节抓

半次元coser的时候就遇到一个恶心的问题,符号都他么被用了,

难以分隔,一个个特殊字符试,后面试到Θ才可以..

迫切需要一个东西来存我们抓取到的数据,当然最好用:数据库

但是考虑到学习成本(主要是我不熟!),先通过一个简单的东西存起来。

AAffA0nNPuCLAAAAAElFTkSuQmCC

最简单的肯定是通过Excel表格啊,最直观了,非编程人员也能看懂!

不多说,开始本节内容~ 本节抓取例子:豆瓣音乐 Top 250

链接:https://music.douban.com/top250

1.编写抓数据脚本

依次校验:

1.数据能在Network选项卡找到,非JS动态加载,直接处理结果就好

2.点击第二页,选中XHR,没有东东,不是Ajax动态加载

链接规则:

链接规则显而易见,每25条一页,0,25,50,75...225

请求头:

就一个:Host:music.douban.com

模拟请求的套路摸清了,接下来就是处理网页拿到想要的数据了:

看下Element,不难发现数据都单独放在一个个table里:

AAffA0nNPuCLAAAAAElFTkSuQmCC

点开其中一个:

AAffA0nNPuCLAAAAAElFTkSuQmCC

先捋下我们想采集到的数据:

图片链接,歌名,歌手,发行时间,分类,评分,评分人数,歌曲详情页

然后就是慢慢抠数据了,自己私下抠,不会抠找以前文章看,

这里直接给出代码:

AAffA0nNPuCLAAAAAElFTkSuQmCC

看下控制台打印出来的信息:

AAffA0nNPuCLAAAAAElFTkSuQmCC

可以,没毛病,接下来看下怎么把数据写到excel表格里~

2.如何将数据写入到Excel中

Step 1:安装库,操作Excel,你需要两个库:xlwt(写Excel) 和 xlrd(读Excel)

命令行pip安装一波。

sudo pip3 install xlwt

sudo pip3 install xlrd

Step 2:熟悉几个基本函数

写入Excel:

xlwt.Workbook():创建一个工作薄

工作薄对象.add_sheet(cell_overwrite_ok=True):添加工作表,括号里是可选

参数,用于确认同一个cell单元是否可以重设值

工作表对象.write(行号,列号,插入数据,风格),第四个参数可选

举个简单例子:插入这样的数据:

sheet.write(0,0,"姓名")

sheet.write(0,1,"学号")

sheet.write(1,0,"小猪")

sheet.write(1,1,"No1")

得到的表格:

AAffA0nNPuCLAAAAAElFTkSuQmCC

工作薄对象.save(Excel文件名):保存到Excel文件中

读取Excel:

xlrd.open_workbook():读取一个Excel文件获得一个工作薄对象

工作薄对象.sheets()[0]:根据索引获得工作薄里的一个工作表

工作表对象.nrows:获得行数

工作表对象.ncols:获得列数

工作表对象.row_values(pos):读取某一行的数据,返回结果是列表类型的

3.编写一个Excel协助类

基本语法了解得差不多了,接着我们来写一个工具类,来把我们爬虫

爬取到的数据写入到Excel表格里,四个方法:

style:根据传入的字体名称,高度,是否加粗,返回一个Style样式

__init__:完成Excel表的一些初始化操作,初始化表头

insert_data:把爬取到的数据插入到Excel里的方法

read_data:读取Excel里数据的方法

接着一步步来,先是style方法:

AAffA0nNPuCLAAAAAElFTkSuQmCC

接着是__init__方法,判断Excel文件是否存在,不存在则新建并进行初始化

AAffA0nNPuCLAAAAAElFTkSuQmCC

再接着是insert_data:

AAffA0nNPuCLAAAAAElFTkSuQmCC

最后是read_data:

AAffA0nNPuCLAAAAAElFTkSuQmCC

代码不算复杂,接着写下调用代码试试:

AAffA0nNPuCLAAAAAElFTkSuQmCC

加一个打印data_group的方法,看下抓取的数据,运行下:

AAffA0nNPuCLAAAAAElFTkSuQmCC

没毛病,圈住哪里[[,这里想表达结果是一个大列表嵌套多个列表!

再接着添加下述代码:

AAffA0nNPuCLAAAAAElFTkSuQmCC

执行后可以看到,生成了一个dbyy.xlsx的文件,打开看看:

AAffA0nNPuCLAAAAAElFTkSuQmCC

啧啧,写入成功,美滋滋!

再接着把无关代码注释掉,调用下读取Excel的方法:

AAffA0nNPuCLAAAAAElFTkSuQmCC

读写都没问题,嘤嘤嘤~

AAffA0nNPuCLAAAAAElFTkSuQmCC

4.小结

本节讲解了一波如何把爬取到的数据存到Excel表里,以及读取Excel表里的数据,

虽然没有数据库高端,但是比起之前用分隔符分隔多中类型的数据,用到的时候

split()好多了,而且非开发者也能直接看懂,除此之外,哪天说不定可以撩到

一些文员小姐姐(编写批处理Excel表的脚本),除此之外还可以做些词频统计类

的脚本玩玩,最后献上哲学启蒙老师照片来结束本节内容,愿天堂没有摔跤:

AAffA0nNPuCLAAAAAElFTkSuQmCC

import re

import requests

import xlwt

import xlrd

import tools as t

rate_count_pattern = re.compile("(\d*人评价)", re.S) # 获取评分人数的正则

base_url = 'https://music.douban.com/top250'

save_file = 'dbyy.xlsx'

# 解析网页获得数据的方法

def parse_url(offset):

resp = requests.get(base_url, params={'page': offset})

print("解析:" + resp.url)

result = []

if resp.status_code == 200:

soup = t.get_bs(resp.content)

tables = soup.select('table[width="100%%"]')

for table in tables:

a = table.find('a')

detail_url = a['href'] # 歌曲详情页面

img_url = a.img['src'] # 图片url

music_name = a.img['alt'] # 歌曲名

p = table.find('p')

data_split = p.get_text().split("/")

singer = data_split[0].strip() # 歌手

public_date = data_split[1].strip()

category = "" # 分类

for data in data_split[2:]:

category += data.strip() + "/"

div = table.find('div', class_="star clearfix")

score = div.select('span.rating_nums')[0].text # 评分

rate_count = rate_count_pattern.search(div.select('span.pl')[0].get_text()).group(0) # 评分人数

result.append([img_url, music_name, singer, public_date, category, score, rate_count, detail_url])

return result

class ExcelHelper:

def __init__(self):

if not t.is_dir_existed(save_file, mkdir=False):

# 1.创建工作薄

self.workbook = xlwt.Workbook()

# 2.创建工作表,第二个参数用于确认同一个cell单元是否可以重设值

self.sheet = self.workbook.add_sheet(u"豆瓣音乐Top 250", cell_overwrite_ok=True)

# 3.初始化表头

self.headTitles = [u'图片链接', u'歌名', u'歌手', u'发行时间', u'分类', u'评分', u'评分人数', u'歌曲详情页']

for i, item in enumerate(self.headTitles):

self.sheet.write(0, i, item, self.style('Monaco', 220, bold=True))

self.workbook.save(save_file)

# 参数依次是:字体名称,字体高度,是否加粗

def style(self, name, height, bold=False):

style = xlwt.XFStyle() # 赋值style为XFStyle(),初始化样式

font = xlwt.Font() # 为样式创建字体样式

font.name = name

font.height = height

font.bold = bold

return style

# 往单元格里插入数据

def insert_data(self, data_group):

try:

xlsx = xlrd.open_workbook(save_file) # 读取Excel文件

table = xlsx.sheets()[0] # 根据索引获得表

row_count = table.nrows # 获取当前行数,新插入的数据从这里开始

count = 0

for data in data_group:

for i in range(len(data)):

self.sheet.write(row_count + count, i, data[i])

count += 1

except Exception as e:

print(e)

finally:

self.workbook.save(save_file)

# 读取Excel里的数据

def read_data(self):

xlsx = xlrd.open_workbook(save_file)

table = xlsx.sheets()[0]

nrows = table.nrows # 行数

ncols = table.ncols # 列数

# 从第一行开始,0是表头

for i in range(1, nrows):

# 读取某行数据

row_value = table.row_values(i)

print(row_value)

if __name__ == '__main__':

offsets = [x for x in range(0, 250, 25)]

data_group = []

for offset in offsets:

data_group += parse_url(offset)

print(data_group)

excel = ExcelHelper()

excel.insert_data(data_group)

excel.read_data()

你可能感兴趣的:(python,爬虫抓取网页数据导出excel)