python爬虫json_python爬虫数据提取一之json

1 数据提取

什么是数据提取? 简单的来说,数据提取就是从响应中获取我们想要的数据的过程

1.1 数据分类

非结构化数据: html , 文本等 处理方法:正则表达式,xpath语法

结构化数据:json,xml等 处理方法:转换为python数据类型

2 复习JSON知识

JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景,比如网站前台与后台之间的数据交互。

2.1 为什么要使用JSON?

把json格式字符串转化为python字典类型很简单,所以爬虫中,如果我们能够找到返回json数据格式字符串的url,就会尽量使用这种url 如何找到返回json的url呢? 1、使用浏览器/抓包工具进行分析 wireshark(windows/linux),tcpdump(linux) 2、抓包手机app的软件

json简单说就是javascript中的对象和数组,所以这两种结构就是对象和数组两种结构,通过这两种结构可以表示各种复杂的结构

对象:对象在js中表示为{ }括起来的内容,数据结构为 { key:value, key:value, ... }的键值对的结构,在面向对象的语言中,key为对象的属性,value为对应的属性值,所以很容易理解,取值方法为 对象.key 获取属性值,这个属性值的类型可以是数字、字符串、数组、对象这几种

数组:数组在js中是中括号[ ]括起来的内容,数据结构为 ["Python", "javascript", "C++", ...],取值方式和所有语言中一样,使用索引获取,字段值的类型可以是 数字、字符串、数组、对象几种。

Json在数据交换中起到了一个载体的作用,承载着相互传递的数据

2.2 转换方法

json.loads()

把Json格式字符串解码转换成python对象

json.dumps()

实现python类型转化为json字符串,返回一个str对象 把一个python对象编码转换成Json字符串

json.dump()

将python内置类型序列化为json对象后写入文件

json.load()

读取文件中json形式的字符串元素 转化成python类型

import json

# python中支持单引号,但转换数据类型的时候,需要使用双引号

dict_data = '{"neuedu":"沈阳_python24", "pub_date": "2019-4-14 17:00:00"}'

print(dict_data)

print(type(dict_data))

# 转成json字符串 默认使用ascii编码,需要设置ensure_ascii为False

json_data = json.dumps(dict_data,ensure_ascii=False)

print(json_data)

print(type(json_data))

# 转成字典

dict_data_str = json.loads(dict_data)

print(dict_data_str)

print(type(dict_data_str))

# 把字典转成json写入文件,写文件如果遇到编码ascii错误,可以指定编码格式为utf8

f = open('data.json','w',encoding='utf8')

json.dump(dict_data_str,f,ensure_ascii=False)

# 读取json文件中的内容,转成字典

f = open('data.json','r',encoding='utf8')

dict_data = json.load(f)

print (dict_data)

3 案例:爬取豆瓣网电视信息

打开ajax请求页会展示如下代码

import requests

import json

# 目标:

# 爬取豆瓣网电视信息

# 1、电视名称、封面信息、评分等

class Douban(object):

def __init__(self):

self.url = 'https://movie.douban.com/j/search_subjects?type=tv&tag=%E7%83%AD%E9%97%A8&sort=recommend&page_limit=200&page_start=1'

self.headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'

}

# 创建文件对象

self.file = open('douban.json','w',encoding='utf8')

# 发送请求,获取数据

def get_data(self):

response = requests.get(url=self.url,headers=self.headers)

# 把响应数据转成str类型

return response.content.decode()

# 解析数据

def parse_data(self,data):

# 把电视数据转成字典

dict_data = json.loads(data)

# print(dict_data)

result_list = dict_data['subjects']

data_list = []

# 获取电视列表数据

for result in result_list:

temp = {}

temp['title'] = result['title']

temp['rate'] = result['rate']

temp['url'] = result['url']

data_list.append(temp)

# 返回数据列表

return data_list

# 保存电视数据

def save_data(self,data_list):

# 遍历列表

for data in data_list:

str_data = json.dumps(data,ensure_ascii=False) + ',\n'

self.file.write(str_data)

# 关闭文件对象

def __del__(self):

self.file.close()

def run(self):

# 1、构建请求头和url

# 2、发送请求,获取数据

data = self.get_data()

# 3、解析数据

data_list = self.parse_data(data)

# 4、保存文件

self.save_data(data_list)

if __name__ == '__main__':

douban = Douban()

douban.run()

你可能感兴趣的:(python爬虫json)