Python与数据库-网络爬虫存储


Python与数据库-网络爬虫存储_第1张图片
图片来自于网络

Python与数据库-网络爬虫存储

@(数据科学)[小树枝来了, 帮助, Markdown, 网络爬虫, 数据存储]

  1. 关系数据库存储-MySQL为例
  2. 爬虫配合MySQL存储
  3. 瑞士军刀-SQLite
  4. 分布式数据存储-NoSQL数据库
  5. 爬虫配合mongoDB存储

tips:

  • 使用虚拟环境时,conda安装的组件在jupyter中无法import,需要在虚拟环境中重新conda install jupyter notebook;
  • 存在基础环境和虚拟环境共用jupyter环境;
  • conda install beautifulsoup4
  • 可以用jupyter notebook进行MATLAB开发,在matlab安装目录中查找python文件里面的setup,用console运行生成python-MATLAB适配器built文件即可;注意:MATLAB只支持python3.5和python2.7;

假设你已经(或者有能力)获取大量数据(通过爬取),那么选择何种方式去存储数据非常重要

一般而言就爬虫问题,我们可以选择:

  1. 文本文件的形式保存(比如csv)
  2. 数据库
  3. 文件系统

第一种

  • 优势:方便,随时使用,不需要第三方的支持
  • 劣势:健壮性差,扩展性差

第二种

  • 优势:良好的扩展性,使用广泛
  • 劣势:(硬要说的话)需要第三方支持,需要进行选择,对技术有一定要求

第三种

  • 更自由,但技术要求会更高

当你选择使用数据库作为你的爬虫的后端存储方案时,核心的问题是:

哪种数据库或者组合能够最好解决你的问题?

  1. 数据库类型
  • 关系型,键值型,文档型等等
  1. 驱动力
  • 实际解决的问题场景
  • 关系型:数据库查询的灵活性 > 灵活的模式
  • 面向列的数据库:适合存储多机的海量数据
  1. 数据库的特性
  • 除了CRUD
  • 数据库是否有模式
  • 数据库是否支持快速索引查找
  • 数据库是否支持自由定义的查询
  • 数据库是否在查询前必须先进行规划
  1. 数据库的性能
  • 是否方便进行优化
  • 是否容易对读写进行优化
  • 支不支持分片,复制
  1. 数据库的伸缩性
  • 横向扩展(MongoDB)
  • 纵向扩展(PostgreSQL)

说说爬虫:

  • 一般的数据,基本上都没有问题

  • 数据变大,数据量和并发都很大的时候

    • 关系型数据库容量和读写能力可能会有问题
    • 爬虫的信息(一般来说比如文本),一般不需要建立关系
    • 爬虫字段经常变化,相对严格模式的关系数据库,NoSQL会更有优势
    • 文档型(MongoDB)更加自由
    • 容易横向扩展、分片、复制
  • 爬虫数据比较脏乱

  • 有时无法预期数据的字段(先爬下来再说)

  • NoSQL可以做Map Reduce优化

关系数据库:

  • 以集合理论为基础的系统,实现为具有行和列的二维表
  • 利用SQL(结构化查询语言)编写查询,与数据库管理系统交互
  • SQLite, MySQL, PostgreSQL

创建database:

INSERT INTO countries (country_code, country_name)
VALUES ('us', 'United States'), ('mx','Mexico'), 
('au','Australia'), ('gb','United Kingdom'), 
('de','Germany'), ('ll','Loompaland');

select * from countries;
select * from cities;
show tables;

INSERT INTO countries (country_code, country_name)
VALUES ('us', 'United States');

DELETE FROM countries WHERE country_code = 'll';

CREATE TABLE cities(
    name  varchar(128) NOT NULL,
    postal_code VARCHAR(9) CHECK (postal_code <> ''),
    country_code CHAR(2) REFERENCES countries,
    PRIMARY KEY (country_code, postal_code)
);

INSERT INTO cities
VALUES ('Portland', '87200', 'us');

UPDATE cities
SET postal_code = '97205'
WHERE name = 'Portland';

SELECT cities.*, country_name
FROM cities INNER JOIN countries
ON cities.country_code = countries.country_code;

DROP TABLE IF EXISTS venues;
CREATE TABLE venues(
    venue_id  int AUTO_INCREMENT PRIMARY KEY,
    name VARCHAR(255),
    street_address varchar(16),
    typev CHAR(8),
    postal_code VARCHAR(9),
    country_code CHAR(10),
    FOREIGN KEY (country_code, postal_code) 
    REFERENCES cities (country_code, postal_code)  MATCH FULL
);

SELECT * FROM venues;

INSERT INTO venues (name, postal_code, country_code)
VALUES ('crystal ballroom', '97205', 'us');

SELECT v.venue_id, v.name, c.name
FROM venues v INNER JOIN cities c
ON v.postal_code=c.postal_code AND v.country_code = c.country_code;

创建链接:

# 模板
import pymysql
# 创建和数据库server的连接
conn = pymysql.connect(host='127.0.0.1', port=3306, user='root', passwd='rootROOT', db='mysql')
# connect(charset='utf8')
# cur是一种能从包括多条数据记录的结果中每次提取一条记录的机制
# 可以说认为cur就是指针
# cur一种临时的数据库对象
cur = conn.cursor()
#cur.execute(“SQL代码”)
#cur.execute("CREATE DATABASE shdata") 
#cur.execute("USE shdata")
cur.close()
conn.close()
# 先建立cur,再执行字符设置
import pymysql
conn = pymysql.connect(host = '127.0.0.1', port=3306, user = 'root', passwd = 'rootROOT', db='mysql') 
cur = conn.cursor()

**cur.execute('SET NAMES utf8') 
cur.execute('SET CHARACTER SET utf8')
cur.execute('SET character_set_connection=utf8')**

# 使用sddatabase数据库
cur.execute("USE hz")
#插入数据 (编码解决)
#请查看commit的作用
cur.execute("INSERT INTO users2 VALUES(1, 'alice'),(2, 'bob'),(3, 'jack'),(4, 'rose')")
#查询 
cur.execute("SELECT * FROM users2") 
for row in cur.fetchall():
    print('%s\t%s'  % row)

关键点,必须要提交

#表修改或插入数据后commit 
conn.commit()
#关闭 
cur.close()
#表修改或插入数据后commit 
conn.commit() 
conn.close()

MongoDB安装

tips:

  • 官网下载,这里是msi
  • 直接安装,然后将path放好
  • C:\Program Files\MongoDB\Server\3.4\bin;(因为你要用到mongod)
  • 启动MongoDB服务之前需要必须创建数据库文件的存放文件夹,否则命令不会自动创建,且不能启动

e.g.

建立一个D:\mongodb\data\db
然后开启mongodb的服务:
mongod --dbpath D:\mongodb\data\db

  • 开服务的时候可能会遇到
    "丢失api-ms-win-crt-runtime-l1-1-0.dll的提示,可通过运行vc_redist.2015.exe的方式解决"

命令行下运行 MongoDB 服务器

为了从命令提示符下运行 MongoDB 服务器,你必须从 MongoDB 目录的 bin 目录中执行 mongod.exe 文件。

C:\Program Files\MongoDB\Server\3.4\bin\mongod --dbpath D:\mongodb\data\db

如果执行成功,会输出如下信息:

2015-09-25T15:54:09.212+0800 I CONTROL Hotfix KB2731284 or later update is not
installed, will zero-out data files
2015-09-25T15:54:09.229+0800 I JOURNAL [initandlisten] journal dir=c:\data\db\j
ournal
2015-09-25T15:54:09.237+0800 I JOURNAL [initandlisten] recover : no journal fil
es present, no recovery needed
2015-09-25T15:54:09.290+0800 I JOURNAL [durability] Durability thread started
2015-09-25T15:54:09.294+0800 I CONTROL [initandlisten] MongoDB starting : pid=2
488 port=27017 dbpath=c:\data\db 64-bit host=WIN-1VONBJOCE88
2015-09-25T15:54:09.296+0800 I CONTROL [initandlisten] targetMinOS: Windows 7/W
indows Server 2008 R2
2015-09-25T15:54:09.298+0800 I CONTROL [initandlisten] db version v3.0.6
……

连接MongoDB
我们可以在命令窗口中运行 mongo.exe 命令即可连接上 MongoDB,执行如下命令:

C:\Program Files\MongoDB\Server\3.4\bin\mongo.exe

MongoDB使用

利用工具:Robomongo(图形化操作)

  1. 建立一个连接
  2. 然后进行操作

名词比较:
SQL:MongoDB:解释
database:database:数据库
table:collection:表/集合
row:document:数据行/文档
primary key:primary key 主键/MongoDB自动将_id字段设置为主键

注意:
在mongo中创建一个collection,只需要在该collection中插入第一条记录。由于mongo没有模式,不需要预先定义模式(比如create),可以直接使用。而且,就算你建立了一个新的collection,比如mongo book,你不插入数据,这个collection其实并不存在。

# 命令行下:
> mongo newdb
> use yourdb
> db.towns.insert({
    name: "New York",
    population: 2220000,
    last_census: ISODate("2009-07-31"),
    famous_for: ["status of liberty", "food"],
    mayor: {
    name: "Jack",
    party: "I"
    }
    })
> show collections
> db.towns.find()

插入数据

采用javascript语言写,在mongo控制台:
> function insertCity(name, population, last_census,famous_for,mayor_info){
db.towns.insert({
    name: name,
    population: population,
    last_census: ISODate(last_census),
    famous_for: famous_for,
    mayor: mayor_info
    });
}
> insertCity("Punxsutawney", 6200, '2008-31-01', ["phil the groundhog"], {name: "Jim"})
> insertCity("Portland", 52800, '2007-31-01', ["beer","food"], {name: "Sam"})
> db.towns.find()
> db.towns.find(
{famous_for:'food'},
{_id:0, name:1, famous_for:1}

    )

MongoDB配合python使用

import pymongo
建立连接:
from pymongo import MongoClient
client = MongoClient()
#client = MongoClient('localhost', 27017)
#client = MongoClient('mongodb://localhost:27017')

#访问数据库
db = client.newdb
#db = client['pymongo_test']
#不管有没有,自动建立

#插入文档
posts = db.posts
post_data = {
    'title': 'Python and MongoDB',
    'content': 'PyMongo is fun',
    'author': 'jack'
}
result = posts.insert_one(post_data)
print('插入一条记录: {0}'.format(result.inserted_id))
# ServerSelectionTimeoutError: localhost:27017: [WinError 10061] 由于目标计算机积极拒绝,无法连接。

#插入文档
posts = db.posts
post_data = {
    'title': 'Python and MongoDB',
    'content': 'PyMongo is fun',
    'author': 'jack'
}
result = posts.insert_one(post_data)
print('插入一条记录: {0}'.format(result.inserted_id))

#同时插入多组
post_1 = {
    'title': 'Python and MongoDB',
    'content': 'PyMongo is fun',
    'author': 'jack'
}
post_2 = {
    'title': 'Virtual Environments',
    'content': 'Use virtual environments',
    'author': 'alice'
}
post_3 = {
    'title': 'Learning Python',
    'content': 'Learn Python, 从入门到放弃',
    'author': 'alice'
}
new_result = posts.insert_many([post_1, post_2, post_3])
print('插入多条: {0}'.format(new_result.inserted_ids))

#查找
bills_post = posts.find_one({'author': 'jack'})
print(bills_post)

#查找多条
alice_posts = posts.find({'author': 'alice'})
print(alice_posts)

#查找多条
for post in alice_posts:
    print(post)

案例分析

针对Ajax异步加载,发现json数据,可以直接入库

import requests
url = 'http://www.guokr.com/scientific/'
# 和花瓣的区别,不用找link,直接把json数据入库

import json
url = 'http://www.guokr.com/apis/minisite/article.json?retrieve_type=by_subject&limit=20&offset=78&_=1492275395425'
html = requests.get(url)
data_list = json.loads(html.text)
print(data_list.keys())
for data in data_list['result']:
    #pass
    print(data)

输出:

dict_keys(['now', 'ok', 'limit', 'result', 'offset', 'total'])
{'image': '', 'is_replyable': True, 'channels': [], 'channel_keys': [], 'preface': '', 'id': 442811, 'subject': {'url': 'https://www.guokr.com/scientific/subject/biology/', 'date_created': '2014-05-23T16:22:09.282129+08:00', 'name': '生物', 'key': 'biology', 'articles_count': 2617}, 'copyright': 'owned_by_translate', 'author': {'url': 'https://www.smithsonianmag.com/author/joshua-rapp-learn/', 'introduction': '新闻记者,写作领域为科学、文化和环境', 'nickname': 'Joshua Rapp Learn', 'avatar': {'small': 'https://pbs.twimg.com/profile_images/727488838759682048/zK3SAwdF.jpg', 'large': 'https://pbs.twimg.com/profile_images/727488838759682048/zK3SAwdF.jpg', 'normal': 'https://pbs.twimg.com/profile_images/727488838759682048/zK3SAwdF.jpg'}}, 'image_description': '', 'is_show_summary': False, 'minisite_key': 'sciblog', 'image_info': {'url': 'https://3-im.guokr.com/nF4LLMvJ7oittqYCTztIqICCyPHkkg_19Yhd2cqhJblKAQAA6wAAAEpQ.jpg', 'width': 330, 'height': 235}, 'subject_key': 'biology', 'minisite': {'name': '科技评论', 'url': 'https://www.guokr.com/site/sciblog/', 'introduction': '科学与思考是人类前进的两只脚,协同一致,我们才能真正进步', 'key': 'sciblog', 'date_created': '2010-10-20T16:20:44+08:00', 'icon': 'https://3-im.guokr.com/wUTGS9coWHVZatYqlPTFGo1ig-2JKzSeLNm1FHweYXRuAAAAWgAAAEpQ.jpg'}, 'tags': ['生物', '考古', '狼', '狗', '同位素', '食物'], 'date_published': '2018-03-07T12:04:42+08:00', 'video_content': '', 'authors': [{'introduction': '新闻记者,写作领域为科学、文化和环境', 'url': 'https://www.smithsonianmag.com/author/joshua-rapp-learn/', 'nickname': 'Joshua Rapp Learn', 'avatar': 'https://pbs.twimg.com/profile_images/727488838759682048/zK3SAwdF.jpg', 'ukey_author': None}], 'replies_count': 35, 'is_author_external': True, 'recommends_count': 0, 'title_hide': '狗是人类的好朋友,但朋友也曾经只是食物', 'date_modified': '2018-03-07T12:06:55.212594+08:00', 'url': 'https://www.guokr.com/article/442811/', 'title': '狗是人类的好朋友,但朋友也曾经只是食物', 'small_image': 'https://3-im.guokr.com/nF4LLMvJ7oittqYCTztIqICCyPHkkg_19Yhd2cqhJblKAQAA6wAAAEpQ.jpg', 'summary': '狗:啥?你再说一遍!', 'ukey_author': None, 'date_created': '2018-03-07T12:04:42+08:00', 'resource_url': 'https://apis.guokr.com/minisite/article/442811.json'}
from bs4 import BeautifulSoup
import requests
import json
import pymongo

url = 'http://www.guokr.com/scientific/'

def getData(url):
    connection = pymongo.MongoClient('localhost', 27017)
    guokeDB = connection.guokeDB
    guokeData = guokeDB.guokeData
    html = requests.get(url)
    data_list = json.loads(html.text)
    print(data_list.keys())
    for data in data_list['result']:
        guokeData.insert_one(data)

urls = ['http://www.guokr.com/apis/minisite/article.json?retrieve_type=by_subject&limit=20&offset={}&_=1462252453410'.format(str(i)) for i in range(20, 100, 20)]
for url in urls:
    getData(url)

你可能感兴趣的:(Python与数据库-网络爬虫存储)