Python在网络爬虫领域的应用

Python 作为一种功能强大的编程语言被很多人使用。那么问题来了,Python 的应用领域有哪些呢? 其实Python 的应用领域非常广泛,几乎覆盖了整个互联网的各行各业,特别是很多大中型互联网企业都在使用 Python 完成各种各样的工作。在国外有 Google、Youtube等;国内的有百度、新浪、阿里、网易、淘宝、知乎、豆瓣美团等等。经过整体分析Python 所涉及的领域主要有Web应用开发、自动化运维、人工智能领域、网路爬虫,游戏开发等等。

Python在网络爬虫领域的应用_第1张图片

这里我们重点说说网络爬虫领域,Python 一开始就用来编写网络爬虫。百度等搜索引擎公司就是大量地使用 Python 语言编写网络爬虫。而且从技术层面上看,Python 提供有很多服务于编写网络爬虫的工具,例如 urllib、Selenium 和 BeautifulSoup 等,还提供了一个网络爬虫框架 Scrapy。Scrapy框架是一套比较成熟的Python爬虫框架,是使用Python开发的快速、高层次的信息爬取框架,可以高效的爬取web页面并提取出结构化数据。 在使用Scrapy抓取数据的过程中目标网站往往有很严的反爬机制,比较常见的就是针对IP的访问限制,如何在爬取过程中添加代理IP绕过反爬机制成功获取数据。比如这里我们可以访问百度搜索关键词为需求并添加代理IP来实现数据的获取,代码实现过程如下:

  #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "16MNGEBC"
                proxyPass = "854726"

                request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)


                # [版本>=2.6.2](https://docs.scrapy.org/en/latest/news.html?highlight=2.6.2#scrapy-2-6-2-2022-07-25)无需添加验证头,会自动在请求头中设置Proxy-Authorization     
                # 版本<2.6.2 需要手动添加代理验证头
                # request.headers['Proxy-Authorization'] = 'Basic ' +  base64ify(proxyUser + ":" + proxyPass)                    

                # 设置IP切换头(根据需求)
                # tunnel = random.randint(1,10000)
                # request.headers['Proxy-Tunnel'] = str(tunnel)

                # 每次访问后关闭TCP链接,强制每次访问切换IP
                request.header['Connection'] = "Close"

你可能感兴趣的:(程序员,爬虫,Python,python,爬虫,开发语言,大数据,深度学习)