网络爬取福利3D中奖信息

python用于爬取时需要用到requests,bs4等模块,但是有些同学的python中并没有将这些模块导入进去,那么该如何导入呢:
首先需要打开控制面板->系统和安全->系统->高级系统设置->环境变量:
用户变量和系统变量中点击新建:
网络爬取福利3D中奖信息_第1张图片
变量名写:path
变量值复制你的python安装路径(可以在桌面快捷方式右击打开文件所在位置,然后复制粘贴那个位置路径即可)
然后点击确定

开始安装模块:
首先打开cmd
网络爬取福利3D中奖信息_第2张图片
然后更改操作路径:输入:CD + python安装路径(此处路径就是上面用到的那个路径)
网络爬取福利3D中奖信息_第3张图片
路径更改成功,输入:pip install bs4 即可安装bs4模块,这里注意的是需要观察你的python文档中pip.exe的文件名是否正确,本人的名称是pip3.8,所以需要输入:pip3.8 install bs4)
网络爬取福利3D中奖信息_第4张图片
这样就安装成功啦。其他模块的方法是一样滴
然后开始编写python代码:

import requests
import xlwt
import time
from bs4 import BeautifulSoup

# 获取网页内容
def get_html(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
    }
    response = requests.get(url, headers = headers)
    if response.status_code == 200:
        return response.text
    else:
        print('无数据!')
    return None

# 解析网页内容
def parse_html(html):
    soup = BeautifulSoup(html, 'lxml')
    i = 0
    for item in soup.select('tr')[2:-1]:
        yield{
            'time':item.select('td')[i].text,
            'issue':item.select('td')[i+1].text,
            'digits':item.select('td em')[0].text,
            'ten_digits':item.select('td em')[1].text,
            'hundred_digits':item.select('td em')[2].text,
            'single_selection':item.select('td')[i+3].text,
            'three_selection':item.select('td')[i+4].text,
            'six_selection':item.select('td')[i+5].text,
            'sales':item.select('td')[i+6].text,
            'return_rates':item.select('td')[i+7].text
        }

# 将数据写入excel表
def write_to_excel():
    f = xlwt.Workbook()
    sheet1 = f.add_sheet('3D', cell_overwrite_ok=True)
    row0 = ['开奖日期','期号','个位数','十位数','百位数','单数','组选3','组选6','销售额','反奖比列']
    # 写入第一行
    for j in range(0, len(row0)):
        sheet1.write(0, j, row0[j])

    # 依次爬取每一个网页,将结果写入excel
    i = 0
    for k in range(1, 248):
        url = 'http://kaijiang.zhcw.com/zhcw/html/3d/list_{}.html'.format(k)
        html = get_html(url)
        print('正在保存第{}页......'.format(k))
        if html != None:
        # 写入每一期信息
            for item in parse_html(html):
                sheet1.write(i+1, 0, item['time'])
                sheet1.write(i+1, 1, item['issue'])
                sheet1.write(i+1, 2, item['digits'])
                sheet1.write(i+1, 3, item['ten_digits'])
                sheet1.write(i+1, 4, item['hundred_digits'])
                sheet1.write(i+1, 5, item['single_selection'])
                sheet1.write(i+1, 6, item['three_selection'])
                sheet1.write(i+1, 7, item['six_selection'])
                sheet1.write(i+1, 8, item['sales'])
                sheet1.write(i+1, 9, item['return_rates'])
                i += 1
    f.save('3D.xls')

def main():
    write_to_excel()

if __name__ == '__main__':
    main()

我是先将网页中的内容都放入文本中,通过文本分析。
然后找到名字为3D的excel表格,里面就有爬取出来的数据。

你可能感兴趣的:(python)