这是python3实战入门系列的第三篇文章,要学习这一篇需要了解前两篇,要不学起来比较费劲
- python3实战入门python爬虫篇001---网页爬虫,图片爬虫,文章爬虫,Python爬虫爬取新闻网站新闻
- python3操作数据库002 借助pycharm快速连接并操作mysql数据库
下面来正式开始把我们第一节爬取到的新闻数据保存到mysql数据中
一,首页我们需要连接数据库
通过定义一个MySQLCommand类来配置数据库连接参数,并定义一个connectMysql方法连接数据库
# -*- coding: utf-8 -*-
# 作者微信:2501902696
import pymysql
# 用来操作数据库的类
class MySQLCommand(object):
# 类的初始化
def __init__(self):
self.host = 'localhost'
self.port = 3306 # 端口号
self.user = 'root' # 用户名
self.password = "" # 密码
self.db = "home" # 库
self.table = "home_list" # 表
# 链接数据库
def connectMysql(self):
try:
self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user,
passwd=self.password, db=self.db, charset='utf8')
self.cursor = self.conn.cursor()
except:
print('connect mysql error.')
二,连接完数据库后我们需要插入数据了
插入数据之前我们有两个问题
- 1,重复的数据如何去重
- 2,新数据的主键id应该从哪里开始
针对上面的两个问题我贴出一部分代码来看解决思路
# 插入数据,插入之前先查询是否存在,如果存在就不再插入
def insertData(self, my_dict):
table = "home_list" # 要操作的表格
# 注意,这里查询的sql语句url=' %s '中%s的前后要有空格
sqlExit = "SELECT url FROM home_list WHERE url = ' %s '" % (my_dict['url'])
res = self.cursor.execute(sqlExit)
if res: # res为查询到的数据条数如果大于0就代表数据已经存在
print("数据已存在", res)
return 0
# 数据不存在才执行下面的插入操作
try:
cols = ', '.join(my_dict.keys())#用,分割
values = '"," '.join(my_dict.values())
sql = "INSERT INTO home_list (%s) VALUES (%s)" % (cols, '"' + values + '"')
#拼装后的sql如下
# INSERT INTO home_list (img_path, url, id, title) VALUES ("https://img.huxiucdn.com.jpg"," https://www.huxiu.com90.html"," 12"," ")
try:
result = self.cursor.execute(sql)
insert_id = self.conn.insert_id() # 插入成功后返回的id
self.conn.commit()
# 判断是否执行成功
if result:
print("插入成功", insert_id)
return insert_id + 1
except pymysql.Error as e:
# 发生错误时回滚
self.conn.rollback()
# 主键唯一,无法插入
if "key 'PRIMARY'" in e.args[1]:
print("数据已存在,未插入数据")
else:
print("插入数据失败,原因 %d: %s" % (e.args[0], e.args[1]))
except pymysql.Error as e:
print("数据库错误,原因%d: %s" % (e.args[0], e.args[1]))
通过上面代码我们来看如何去重
- 我们在每次插入之前需要查询下数据是否已经存在,如果存在就不在插入,我们的home_list表格的字段有 id,title,url,img_path。通过分析我们抓取到的数据titlehe和img_path字段都可能为空,所以这里我们通过url字段来去重。知道去重原理以后再去读上面的代码,你应该能容易理解了
三,查询数据库中最后一条数据的id值,来确定我们新数据id的开始值
通过下面的getLastId函数来获取home_list表里的最后一条数据的id值
# 查询最后一条数据的id值
def getLastId(self):
sql = "SELECT max(id) FROM " + self.table
try:
self.cursor.execute(sql)
row = self.cursor.fetchone() # 获取查询到的第一条数据
if row[0]:
return row[0] # 返回最后一条数据的id
else:
return 0 # 如果表格为空就返回0
except:
print(sql + ' execute failed.')
下面贴出MySQLCommand数据库操作类的完整代码
# -*- coding: utf-8 -*-
# 作者微信:2501902696
import pymysql
# 用来操作数据库的类
class MySQLCommand(object):
# 类的初始化
def __init__(self):
self.host = 'localhost'
self.port = 3306 # 端口号
self.user = 'root' # 用户名
self.password = "" # 密码
self.db = "home" # 库
self.table = "home_list" # 表
# 链接数据库
def connectMysql(self):
try:
self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user,
passwd=self.password, db=self.db, charset='utf8')
self.cursor = self.conn.cursor()
except:
print('connect mysql error.')
# 插入数据,插入之前先查询是否存在,如果存在就不再插入
def insertData(self, my_dict):
table = "home_list" # 要操作的表格
# 注意,这里查询的sql语句url=' %s '中%s的前后要有空格
sqlExit = "SELECT url FROM home_list WHERE url = ' %s '" % (my_dict['url'])
res = self.cursor.execute(sqlExit)
if res: # res为查询到的数据条数如果大于0就代表数据已经存在
print("数据已存在", res)
return 0
# 数据不存在才执行下面的插入操作
try:
cols = ', '.join(my_dict.keys())#用,分割
values = '"," '.join(my_dict.values())
sql = "INSERT INTO home_list (%s) VALUES (%s)" % (cols, '"' + values + '"')
#拼装后的sql如下
# INSERT INTO home_list (img_path, url, id, title) VALUES ("https://img.huxiucdn.com.jpg"," https://www.huxiu.com90.html"," 12"," ")
try:
result = self.cursor.execute(sql)
insert_id = self.conn.insert_id() # 插入成功后返回的id
self.conn.commit()
# 判断是否执行成功
if result:
print("插入成功", insert_id)
return insert_id + 1
except pymysql.Error as e:
# 发生错误时回滚
self.conn.rollback()
# 主键唯一,无法插入
if "key 'PRIMARY'" in e.args[1]:
print("数据已存在,未插入数据")
else:
print("插入数据失败,原因 %d: %s" % (e.args[0], e.args[1]))
except pymysql.Error as e:
print("数据库错误,原因%d: %s" % (e.args[0], e.args[1]))
# 查询最后一条数据的id值
def getLastId(self):
sql = "SELECT max(id) FROM " + self.table
try:
self.cursor.execute(sql)
row = self.cursor.fetchone() # 获取查询到的第一条数据
if row[0]:
return row[0] # 返回最后一条数据的id
else:
return 0 # 如果表格为空就返回0
except:
print(sql + ' execute failed.')
def closeMysql(self):
self.cursor.close()
self.conn.close() # 创建数据库操作类的实例
再贴出把爬虫爬取数据插入到数据库的代码
# -*- coding: utf-8 -*-
# 作者微信:2501902696
from bs4 import BeautifulSoup
from urllib import request
import chardet
from db.MySQLCommand import MySQLCommand
url = "https://www.huxiu.com"
response = request.urlopen(url)
html = response.read()
charset = chardet.detect(html)
html = html.decode(str(charset["encoding"])) # 设置抓取到的html的编码方式
# 使用剖析器为html.parser
soup = BeautifulSoup(html, 'html.parser')
# 获取到每一个class=hot-article-img的a节点
allList = soup.select('.hot-article-img')
# 连接数据库
mysqlCommand = MySQLCommand()
mysqlCommand.connectMysql()
#这里每次查询数据库中最后一条数据的id,新加的数据每成功插入一条id+1
dataCount = int(mysqlCommand.getLastId()) + 1
for news in allList: # 遍历列表,获取有效信息
aaa = news.select('a')
# 只选择长度大于0的结果
if len(aaa) > 0:
# 文章链接
try: # 如果抛出异常就代表为空
href = url + aaa[0]['href']
except Exception:
href = ''
# 文章图片url
try:
imgUrl = aaa[0].select('img')[0]['src']
except Exception:
imgUrl = ""
# 新闻标题
try:
title = aaa[0]['title']
except Exception:
title = ""
#把爬取到的每条数据组合成一个字典用于数据库数据的插入
news_dict = {
"id": str(dataCount),
"title": title,
"url": href,
"img_path": imgUrl
}
try:
# 插入数据,如果已经存在就不在重复插入
res = mysqlCommand.insertData(news_dict)
if res:
dataCount=res
except Exception as e:
print("插入数据失败", str(e))#输出插入失败的报错语句
mysqlCommand.closeMysql() # 最后一定要要把数据关闭
dataCount=0
如果对上面代码不是很了解可以到我的第一节文章去看下
python3实战入门python爬虫篇---网页爬虫,图片爬虫,文章爬虫,Python爬虫爬取新闻网站新闻
到此我们的python3爬虫+python3数据库篇就完事了,看下操作效果图
gif图片质量不是很好,大家凑合着看吧☺☺☹☎
图文教程
- python入门001~python开发工具 pycharm的安装与破解(mac和window都有讲)
https://www.jianshu.com/p/dc8299467718 - python入门002~创建属于自己的第一个python项目
https://www.jianshu.com/p/eda772bde32a - python入门003~python3的安装~以python3最新版为例(Mac window都有讲)
https://www.jianshu.com/p/4bb23e40a7ac - python入门004~创建属于自己的第一个python3项目~python3基础知识的讲解
https://www.jianshu.com/p/0fadc0369abd - python入门005~基本数据类型和变量的学习
https://www.jianshu.com/p/44c2a7b34cbf - python入门010~python3操作数据库 借助pycharm快速连接并操作mysql数据库
https://www.jianshu.com/p/a23f414cc2f2 - python入门011~python3借助requests类库3行代码爬取网页数据
https://www.jianshu.com/p/cf22a679e96f - python入门012~使用python3爬取网络图片并保存到本地
https://www.jianshu.com/p/651effd4f3b8 - python入门013~爬虫篇,网页爬虫,图片爬虫,文章爬虫,Python爬虫爬取新闻网站新闻
https://www.jianshu.com/p/7e59f52ea0b6 - python入门014~把爬取到的数据存到数据库,带数据库去重功能
https://www.jianshu.com/p/5ba719a7d8cb - python入门015---python爬取前程无忧51job的职位信息并存入mysql数据库(带数据去重)
https://www.jianshu.com/p/fe434693781f
视频教程
点击这个地址可以试看:https://www.bilibili.com/video/av55521385/
如果觉得视频教程不错,可以加老师微信购买 ,老师微信 2501902696