python爬虫爬取链家网房价信息

打开链家网页:https://sh.lianjia.com/zufang/  :用F12以页面中元素进行检查python爬虫爬取链家网房价信息_第1张图片

python爬虫爬取链家网房价信息_第2张图片 

 
浦东
川沙
园西小区
 

 

二 解析数据

解析数据是我们首先需要分配一块用于暂存数据的空间datalist ,然后就是对获取到的资源进行解析。这里我们再定义一个 data 用来存储解析出来的数据。我们解析的是HTML格式,所以我们使用的是html.parser,然后使用find_all函数查找符合的字符串,这里我们需要注意的就是要将我们查找的item条目转换成字符串格式,否则无法识别。使用re库通过正则表达式查找到指定的字符串后,运用data.append语句将字符串加入到data中。

三 储存数据

将网页爬的数据储存下来,接着把数据存入excel,定义函数,然后创建workbook对象和工作表,然后在工作表中创建前面爬取的条目,再向表中写入数据即可。

综合代码

import re #正则表达式,进行文字匹配
from bs4 import BeautifulSoup#网页解析,获取数据
import urllib.request,urllib.error #制定URL,获取网页数据
import xlwt #进行excel操作
import sqlite3 #进行SQLLite数据库操作

# 区域
findplace1 = re.compile(
    r'(.*)-.*-.*')  # 创建正则表达式对象,表示规则(字符串的模式)

findplace2 = re.compile(
    r'.*-(.*)-.*')

findplace3 = re.compile(
    r'.*-.*-(.*)')
#房子大小
finddaxiao = re.compile(r'/(.*)/.*/.*',re.S)    #re.s让换行符包含在字符中
#房子朝向
findfangxiang = re.compile(r'/.*/(.*)/.*',re.S)
#房子规格
findguige = re.compile(r'/.*/.*/(.*)',re.S)
#楼层类型
findleixing = re.compile(r'

.*/(.*).*

.*

',re.S) #是否靠近地铁 findsubway = re.compile(r'(.*)') #是否是精装 finddecoration = re.compile(r'(.*)') #是否可以随时看房 findkey = re.compile(r'(.*)') #是否是新上的 findnew = re.compile(r'(.*)') #维护时间 findtime = re.compile(r'(.*)') #平均租金 findmoney = re.compile(r'(.*)') def main(): dbpath="fangjia.db" #用于指定数据库存储路径 savepath="fangjia.xls" #用于指定excel存储路径 baseURL="https://sh.lianjia.com/zufang/" #爬取的网页初始链接 dataList=getData(baseURL) saveData(dataList,savepath) saveDataDB(dataList,dbpath) def askURL(url): head = { # 模拟浏览器头部信息,向链家服务器发送消息 "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36" } # 用户代理,表示告诉链家服务器,我们是什么类型的机器,浏览器(本质上是爬虫) request = urllib.request.Request(url, headers=head) html = "" try: response = urllib.request.urlopen(request) html = response.read().decode("utf-8") #print(html) 测试用的 except urllib.error.URLError as e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reason"): print(e.reason) return html def getData(baseurl): # 调用获取页面信息的函数 datalist = [] # 分配暂存的空间 for i in range(0, 100): url = baseurl + str(i) html = askURL(url) # 保存获取到的网页源码 # print(html) #测试用的代码 # 逐一解析数据(边获取边解析) soup = BeautifulSoup(html, "html.parser") # html.parser是html的解析器 for item in soup.find_all('div', class_="content__list--item"): # 查找符合要求的字符串,形成列表 # print(item) #测试:查看链家item全部信息 data = [] item = str(item) # 转换成字符串,否则无法识别 place1 = re.findall(findplace1, item)[0] # re库用来通过正则表达式查找指定的字符串 place2 = re.findall(findplace2, item)[0] place = place1 + '-' + place2 data.append(place) # 添加地址 daxiao = re.findall(finddaxiao, item)[0] daxiao = daxiao.strip() data.append(daxiao.replace("㎡", "")) # 添加房子大小(平米)并替换前后空格 fangxiang = re.findall(findfangxiang, item)[0] data.append(fangxiang.replace(" ", "")) # 添加房子朝向并替换空格 guige = re.findall(findguige, item)[0] data.append(guige.replace(" ", "")) # 添加房子户型并替换空格 leixing1 = re.findall(findleixing, item)[0] leixing2 = leixing1.strip() # 去掉前后空格 leixing3 = leixing2.replace(" ", "") # 将空格替换掉 data.append(leixing3[0:3]) # 添加房子楼层类型并替换空格 data.append(leixing3[4:8].replace("层)", "")) # 添加房子层数并替换掉() subway = re.findall(findsubway, item) # 可能写有靠近地铁 if (len(subway)) != 0: subway = subway[0] data.append(subway) # 添加近地铁 else: data.append("不靠近地铁") # 添加不靠近地铁 decoration = re.findall(finddecoration, item) if len(decoration) != 0: decoration = decoration[0] data.append(decoration) # 添加精装 else: data.append("不是精装") # 添加不是精装 key = re.findall(findkey, item) if len(key) != 0: key = key[0] data.append(key) # 添加随时看房 else: data.append("不是随时看房") # 添加不是随时看房 new = re.findall(findnew, item) if len(new) != 0: new = new[0] data.append(new) # 添加新上 else: data.append("不是新上") # 添加不是新上 time = re.findall(findtime, item)[0] data.append(time) # 添加维护时间 money = re.findall(findmoney, item)[0] data.append(money) # 添加平均租金(元/月) datalist.append(data) # 将data中的数据放入datalist中 return datalist def saveData(datalist,savepath): print("save...") book = xlwt.Workbook(encoding="utf-8",style_compression=0) #创建workbook对象 sheet = book.add_sheet('链家租房信息',cell_overwrite_ok=True) #创建工作表 col = ("区域","房子大小","房子朝向","户型","楼层类型","楼层数","是否靠近地铁","是否是精装","是否可以随时看房","是否是新上的","维护时间","平均租金") for i in range(0,12): sheet.write(0,i,col[i]) #列名 for i in range(0,3000): print("第%d条" %(i+1)) data = datalist[i] for j in range(0,12): sheet.write(i+1,j,data[j]) #数据 book.save(savepath) def saveDataDB(datalist, dbpath): init_db(dbpath) conn = sqlite3.connect(dbpath) # 链接数据库 cur = conn.cursor() # 游标 for data in datalist: for index in range(len(data)): if index == 3 or index == 7 or index == 13: # 遇见numeric类型时不转换成"xx"型 continue data[index] = '"' + data[index] + '"' # 转换成"xx"型 sql = ''' insert into homes ( info_link,place,xiaoqu,size,chaoxiang,huxing,type,num,subway,decoration,key,new,time,money) values('%s')''' % ",".join(data) cur.execute(sql) # 执行sql语句 conn.commit() # 提交结果 cur.close() # 关闭游标 conn.close() # 关闭连接 print("save....") def init_db(dbpath): sql = ''' create table homes ( id integer primary key autoincrement, info_link text, place text, xiaoqu text, size numeric, chaoxiang varchar, huxing text, type text, num numeric, subway text, decoration text, key text, new text, time text, money numeric ) ''' #创建数据表 conn = sqlite3.connect(dbpath) cursor = conn.cursor() cursor.execute(sql) conn.commit() conn.close() if __name__=="__main__": #程序执行入口 main()

python爬虫爬取链家网房价信息_第3张图片

 python爬虫爬取链家网房价信息_第4张图片

 

你可能感兴趣的:(开发语言,python)