Python爬虫入门课: 如何实现数据抓取 <文字 图片 音频 视频 文档..>

嗨喽~大家好呀,这里是魔王呐 ❤ ~!

python更多源码/资料/解答/教程等 点击此处跳转文末名片免费获取

环境使用:

  • Python 3.10 解释器

  • Pycharm 编辑器

模块使用:

  • requests

  • re

  • csv

  • pandas

爬虫实现第一步:

一. 抓包分析

  • 找到对应数据链接地址

  • 套用代码:

    1. 修改链接

    2. 请求方式 (大部分get)

    3. 请求头模拟伪装 (复制)

    4. 根据响应返回的数据, 选择对应数据获取方式

      • 文字: 评论 / 弹幕 / 小说内容 / 房源数据 / 电商平台数据

        保存: txt 表格文件中 (csv / Excel)

二. 代码实现步骤

  1. 发送请求

  2. 获取数据

  3. 解析数据

  4. 保存数据

代码

# 导入数据请求模块
import requests
# 导入正则表达式模块
import re
# 导入csv模块
import csv
# 导入pandas
import pandas as pd

“”“保存csv”“”

csv_file = open('data.csv', mode='a', encoding='utf-8', newline='')
csv_writer  = csv.DictWriter(csv_file, fieldnames=['链接', '书名'])
csv_writer.writeheader()

“”“保存Excel”“”

content_list = [] # 创建空列表

“”“爬虫代码模板”“”

'''
遇到问题没人解答?小编创建了一个Python学习交流QQ群:926207505
寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书!
'''
# 请求网址 <可修改>
url = 'https://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-recent7-0-0-1-1'
# 模拟浏览器 <可修改> 只加ua得不到数据,考虑加其他的内容 cookie
headers = {
    # 'Cookie':'cookie2=1cc1a1d71b55c70f06a967cf6928e38f; t=bd212cd7985fc01620072c32d0c75e63; _tb_token_=f3b1be8e3571e; _m_h5_tk=4864b7435c237379bd0672766256fd82_1700664128902; _m_h5_tk_enc=6d437a80c2f37003b6a959efefe1ee65; cna=UuLkHVk6/GoCAa8N4mgNBHoR; xlly_s=1; _samesite_flag_=true; sgcookie=E100yzzme9pkL0eYBuODsheO6oym4V1a7ylpVuQTOkCGO76sQKdX2qtiPLXKp0Sb8zjJ%2FqStCUkOK1MfrNdepq45tpO3eeak6QWmpUJCskUPy9g%3D; unb=2253332812; uc3=vt3=F8dD3CN7RI1WgzeB9LA%3D&nk2=EFHQgqY%2FYVpGAB3A&lg2=VFC%2FuZ9ayeYq2g%3D%3D&id2=UUpkuyL4JX%2FEYg%3D%3D; csg=6c1f510f; lgc=songlin12355; cancelledSubSites=empty; cookie17=UUpkuyL4JX%2FEYg%3D%3D; dnk=songlin12355; skt=8ae0cfff23ab7492; existShop=MTcwMDY1NjIzMw%3D%3D; uc4=nk4=0%40EohdjXbja%2BcD2pXliwckLCTyc578V0Q%3D&id4=0%40U2guM2WFlHhG0KgHRZNn6toWs%2BQA; tracknick=songlin12355; _cc_=U%2BGCWk%2F7og%3D%3D; _l_g_=Ug%3D%3D; sg=526; _nk_=songlin12355; cookie1=WvZkvpyfdEVhZc7D4YCP4CnB%2BS2ARzymB83V5PHKTvs%3D; isg=BIeH6YlcrkNR5irPvfaakVLtFjtRjFtuCLgwzFl0cZYfyKaKYFniv_nJaoiWIDPm; tfstk=dKODvFa23KWf10jDdmCjgygLZ-DRco11xhFOX1IZUgS7H1HXWNvkRhjx5x1vEGxyqiPxlEKl7hY6Hq6tcP4XZHVTMmMX75fO_DnK9XLbh11tvsAHExgFsrHF4dGplE1_olupUXFMwyTdjYy05QzHMqflxPwY6dvET0sHugVHPQ74GMcC455eaZWD_K6wE8yFOiN1zVdzCR6VPajd_-PZs; l=fBIlxQSlPuu7D7pTBO5CPurza779UIRb8sPzaNbMiIEGa1yPTd8piNCTdGTM7dtjgT50keKyMAhYGdUyrRz38AkDBeYIpIqLALv68eM3N7AN.; mt=ci=68_1; uc1=cookie16=UIHiLt3xCS3yM2h4eKHS9lpEOw%3D%3D&cookie21=V32FPkk%2FgPzW&existShop=false&cookie15=VFC%2FuZ9ayeYq2g%3D%3D&cookie14=UoYelQxCxISYZA%3D%3D&pas=0; thw=cn',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36'
}
# 发送请求 <请求方式可修改>
response = requests.get(url=url, headers=headers)
"""获取响应数据
    - response.text 获取响应文本数据 (字符串)
        获取html网页数据
    - response.json() 获取响应json数据 (json字典)
        {} 花括号包裹起来数据 <必须是完整json数据格式>
    - response.content 获取响应二进制数据 (保存图片/视频/音频/特定格式文件...)
"""
html = response.text
"""解析数据
    - 数据源: 字符串数据
    - 数据: 需要的数据直接复制粘贴 需要提取内容(.*?)
    re.findall('数据', '数据源')
        比如: info = re.findall('"creativeTitle":"(.*?)","hotSale"', html)

为了防止被封IP 换IP代理 换账号 设置延时
"""
info = re.findall('

尾语

最后感谢你观看我的文章呐~本次航班到这里就结束啦

希望本篇文章有对你带来帮助 ,有学习到一点知识~

躲起来的星星也在努力发光,你也要努力加油(让我们一起努力叭)。

最后,宣传一下呀~更多源码、资料、素材、解答、交流皆点击下方名片获取呀

你可能感兴趣的:(python爬虫,python,爬虫,开发语言,pycharm,学习)