爬虫01-基础

01.什么是爬虫

  • 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。

02.爬虫究竟是合法的还是违法的?

  • 在法律中不被禁止
  • 具有违法风险
  • 善意爬虫/恶意爬虫

03.爬虫带来的风险:

  • 爬虫干扰了被访问网站的正常运营
  • 爬虫抓取了受到法律保护的特定类型的数据或信息

04.如何在使用/编写爬虫的过程中避免小黑屋(进局子)?

  • 时常优化自己的程序,避免干扰被访问网站的正常运营
  • 在使用、传播爬取到的数据时,审查抓取到的内容,如果发现涉及到用户商业机密等敏感内容时需要及时停止爬取或传播

05.爬虫在使用场景中的分类

  • 通用爬虫

    抓取系统重要组成部分,抓取的是一整张页面数据。

  • 聚焦爬虫

    是建立在通用爬虫的基础之上,抓取的是页面中特定的局部内容。

  • 增量式爬虫

    检测网站中数据更新的情况,只会抓取到网站中最新更新出来的数据。

06.爬虫中的矛与盾

  • 爬虫,反爬机制,反反爬策略

07.反爬机制

  • 门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取。

08.反反爬策略

  • 爬虫程序可以通过制定相应的策略或技术手段,破解门户网站中的反爬机制,从而可以获取门户网站中相关内容

09.robots.txt协议

  • (君子协议),规定了网站中哪些数据可以被爬取,哪些数据禁止爬取。

10.http协议

  • 概念:服务器与客户端进行数据交互的一种形式

11.常用请求头信息

  • User-Agent:请求载体的身份标识
  • Connection:请求完毕后,是断开连接还是保持连接

12.常用响应头信息

  • Content-Type:服务器响应回客户端的数据类型

13.https协议

  • 安全的超文本传输协议

14.加密方式

  • 对称秘钥加密
  • 非对称密钥加密
  • 证书密钥加密

你可能感兴趣的:(python,python,爬虫)