python用于爬取时需要用到requests,bs4等模块,但是有些同学的python中并没有将这些模块导入进去,那么该如何导入呢:
首先需要打开控制面板->系统和安全->系统->高级系统设置->环境变量:
用户变量和系统变量中点击新建:
变量名写:path
变量值复制你的python安装路径(可以在桌面快捷方式右击打开文件所在位置,然后复制粘贴那个位置路径即可)
然后点击确定
开始安装模块:
首先打开cmd
然后更改操作路径:输入:CD + python安装路径(此处路径就是上面用到的那个路径)
路径更改成功,输入:pip install bs4 即可安装bs4模块,这里注意的是需要观察你的python文档中pip.exe的文件名是否正确,本人的名称是pip3.8,所以需要输入:pip3.8 install bs4)
这样就安装成功啦。其他模块的方法是一样滴
然后开始编写python代码:
import requests
import xlwt
import time
from bs4 import BeautifulSoup
# 获取网页内容
def get_html(url):
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
}
response = requests.get(url, headers = headers)
if response.status_code == 200:
return response.text
else:
print('无数据!')
return None
# 解析网页内容
def parse_html(html):
soup = BeautifulSoup(html, 'lxml')
i = 0
for item in soup.select('tr')[2:-1]:
yield{
'time':item.select('td')[i].text,
'issue':item.select('td')[i+1].text,
'digits':item.select('td em')[0].text,
'ten_digits':item.select('td em')[1].text,
'hundred_digits':item.select('td em')[2].text,
'single_selection':item.select('td')[i+3].text,
'three_selection':item.select('td')[i+4].text,
'six_selection':item.select('td')[i+5].text,
'sales':item.select('td')[i+6].text,
'return_rates':item.select('td')[i+7].text
}
# 将数据写入excel表
def write_to_excel():
f = xlwt.Workbook()
sheet1 = f.add_sheet('3D', cell_overwrite_ok=True)
row0 = ['开奖日期','期号','个位数','十位数','百位数','单数','组选3','组选6','销售额','反奖比列']
# 写入第一行
for j in range(0, len(row0)):
sheet1.write(0, j, row0[j])
# 依次爬取每一个网页,将结果写入excel
i = 0
for k in range(1, 248):
url = 'http://kaijiang.zhcw.com/zhcw/html/3d/list_{}.html'.format(k)
html = get_html(url)
print('正在保存第{}页......'.format(k))
if html != None:
# 写入每一期信息
for item in parse_html(html):
sheet1.write(i+1, 0, item['time'])
sheet1.write(i+1, 1, item['issue'])
sheet1.write(i+1, 2, item['digits'])
sheet1.write(i+1, 3, item['ten_digits'])
sheet1.write(i+1, 4, item['hundred_digits'])
sheet1.write(i+1, 5, item['single_selection'])
sheet1.write(i+1, 6, item['three_selection'])
sheet1.write(i+1, 7, item['six_selection'])
sheet1.write(i+1, 8, item['sales'])
sheet1.write(i+1, 9, item['return_rates'])
i += 1
f.save('3D.xls')
def main():
write_to_excel()
if __name__ == '__main__':
main()
我是先将网页中的内容都放入文本中,通过文本分析。
然后找到名字为3D的excel表格,里面就有爬取出来的数据。