scrapy框架爬取数据并写入数据库

写入两个数据库,如果需要一个,按照其中一个执行就可以:
①、MongoDB
②、Mysql

一、创建数据库

1、使用虚拟机安装centos7,并安装docker(百度有教程)
2、docker修改下载源(不改也行,改了下载速度更快)
3、docker下载mongo与Mysql镜像文件

docker pull mongo  #下载mongo镜像文件
docker pull mysql   #下载mysql镜像文件

3、启动镜像文件

#启动mongo数据库
docker run -d --name mongo -p 27017:27017 -v /home/docker/mongo.27017/datadb:/data/db -v /home/docker/mongo.27017/dataconfigdb:/data/dataconfigdb mongo

#启动Mysql数据库  
docker run --name mysql -p 3306:3306 -e MYSQL_ROOT_PASSWORD='设置密码' -d mysql:latest  #初始账户为root

启动mongo
注释:
run:启动镜像;-d: 后台启动方式;-name:自定义名称;-p :映射端口(本机未占用的端口号);-v :挂载数据目录和配置目录; mongo:3.6.9 :启动的镜像版本

启动mysql

4、进入运行容器

docker  exec -it  容器名  bash  #mongo或mysql(自己刚刚定义的启动容器名)

5、创建用户

MongoDB:

mongo   #进入mongoshell 
进入mongo数据库

创建用户

db.createUser({user:"admin", pwd:"0000", roles:["root"]}); #创建admin账户

Mysql

#输入运行账户
mysql -uroot -p -h localhost
#弹出来Enter password:   输入密码:(运行镜像时创建的)
成功运行Mysql

6、使用可视化工具连接数据库,验证创建成功
使用navicat连接数据库地址,验证是够可正确连接。

二、下载依赖包

打开CMD,执行以下命令

pip install pymongo    #mongo依赖包
pip install pymysql     #mysql依赖包

三、修改爬虫项目下pipelines.py文件

MongoDB:

惰性插入,有数据才会生成集合,插入数据方式.

import pymongo

from pymongo import MongoClient
 

class Pachong7Pipeline(object):
    def open_spider(self, spider):
        #连接MongoDB数据库
        self.db = MongoClient('mongodb://数据库地址:27017/')
        self.collection = self.db.创建表名
    def process_item(self, item, spider):
        #转化成字典并写入数据
        self.collection.表名.insert_one(dict(item))

Mysql:

注意:Mysql和mongo不同,要在插入数据之前,事先创建好数据库及表

import pymysql

class Pachong7Pipeline(object):
    def open_spider(self, spider):
        self.conn = pymysql.connect(host='数据库地址',user='账号',passwd='密码',db='库名')  #连接数据库
    def process_item(self, item, spider):
        #添加数据到chengjiao表中
        self.conn.query(
        "insert chengjiao(apartment,price,huxing,junjia)"  #需要插入的字段
        "values('{}','{}','{}','{}')".format(
        item['apartment'],item['price'],item['huxing'],item['junjia']  #爬取项目中定义的字段
        ))
        self.conn.commit()#执行添加
    def close_spider(self, spider):
        self.conn.close()  #关闭连接
        yield item
        

最后别忘了在settings中启用pipeline

settings已经自动生成了,直接去掉注释就好了

ITEM_PIPELINES = {
    'pachong7.pipelines.Pachong7Pipeline': 300,   
}

你可能感兴趣的:(scrapy框架爬取数据并写入数据库)