我们为什么要学习爬虫技术呢?因为我们现在来到了大数据时代,掌握了数据就是掌握了各种信息,从而开展我们的各项工作,我们所使用的的数据的来源有哪些呢?主要来自于下面几个方面:
(1)企业⽣产的⽤户数据
(2)数据管理咨询公司
(3)政府/机构提供的公开的数据
(4)第三⽅数据平台购买数据
(5)爬⾍爬取数据
所以,学习爬虫技术非常重要。
⽹络爬⾍(⼜被称为⽹⻚蜘蛛,⽹络机器⼈)就是模拟客户端发送⽹络请求,接收请求响应,⼀种按照⼀定的规则,⾃动地抓取互联⽹信息的程序。
只要是浏览器能做的事情,原则上,爬⾍都能够做。
(1)12306抢票
(2)⽹站上的投票
(3)短信轰炸(不建议)
代码简介,开发效率⾼,⽀持的模块多,HTTP请求和HTML解析的模块丰富。
调⽤其他接⼝也⾮常⽅便。
根据使用场景,网络爬虫可分为通用爬虫和聚焦爬虫。
通⽤网络爬虫是捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要⽬的是将互联⽹上的⽹⻚下载到本地,形成⼀个互联⽹内容的镜像备份。
通⽤搜索引擎(Search Engine)⼯作原理
通⽤⽹络爬虫从互联⽹中搜集⽹⻚,采集信息,这些⽹⻚信息⽤于为搜索引擎建⽴索引从⽽提供⽀持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果。
搜索引擎⽹络爬⾍的基本⼯作流程如下:
搜索引擎通过爬⾍爬取到的网页,将数据存入原始⻚⾯数据库。其中的⻚⾯数据与⽤户浏览器得到的HTML是完全⼀样的。
搜索引擎蜘蛛在抓取⻚⾯时,也做⼀定的重复内容检测,⼀旦遇到访问权重很低的⽹站上有⼤量抄袭、采集或者复制的内容,很可能就不再爬⾏。
搜索引擎将爬⾍抓取回来的⻚⾯,进⾏各种步骤的预处理。
搜索引擎在对信息进⾏组织和处理后,为⽤户提供关键字检索服务,将⽤户检索相关的信息展示给⽤户。
同时会根据⻚⾯的PageRank值(链接的访问量排名)来进⾏⽹站排名,这样Rank值⾼的⽹站在搜索结果中会排名较前,当然也可以直接使⽤ Money 购买搜索引擎⽹站排名,简单粗暴。
聚焦爬⾍,是"⾯向特定主题需求"的⼀种⽹络爬⾍程序,它与通⽤搜索引擎爬⾍的区别在于: 聚焦爬⾍在实施⽹⻚抓取时会对内容进⾏处理筛选,尽量保证只抓取与需求相关的⽹⻚信息。