①)网络爬虫定义,又称Web Spider,网页蜘蛛,按照一定的规则,自动抓取网站信息的程序或者脚本。
蜘蛛通过网页的链接地址来寻找网页,从网站某一个页面开始,读取网页的内容,找到网页中的其他链接地址,
然后通过这些链接地址寻找下一个网页,直到把这个额昂展所有的网页都抓取完为止。
②)爬虫流程:
①urllib的request打开url带到网页的html文档
②浏览器打开网页源代码分析元素节点
③通过Beautiful Soup或者正则表达式提取想要的数据
④存储数据到本地磁盘或者数据库,进行数据分析
①Python 3.6.4(官网下载安装),环境变量配置
②基本的http抓取工具 scrapy (安装命令pip install scrapy)
③bs4 (安装命令:pip install scrapy)
#urllib的request模块可以非常方便的抓取URL内容,也就是发送一个GET请求到指定的页面,然后返回HTTP的响应。
from urllib import request
②
#BeautifulSoup是Python的一个库,最主要的功能是从网页爬取我们所需要的数据。
#BeautifulSoup将html解析为对象进行处理,全部页面转变为字典或者数组,相对于正则表达式的方式,可以大大简化处理过程。
from bs4 import BeautifulSoup
③
#构造头文件,模拟浏览器访问。
url=”http://www.jianshu.com” #要爬的url
headers = {‘User-Agent’:’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36′}
page=request.Request(url,headers=headers)
page_info=request.urlopen(page).read().decode(‘utf-8’) #打开url,获取HttpResponse返回对象并读取ResponseBody
④
#将获取到response析成Beautiful soup格式,解析器为html.parser
soup=BeautifulSoup(page_info,’html.parser’)
⑤
#查找所有a标签中class=’title’的语句
titles=soup.find_all(‘a’,’title’)
⑥
#open()是读写文件的函数,with语句会自动close()已打开文件
with open(r”D:\lgz\articles.txt”,”w”)as file: #在磁盘以只写的方式打开/创建一个名为 articles 的txt文件
for title in titles:
file.write(title.string+’\n’)
file.write(“http://www.jianshu.com”+title.get(‘href’)+’\n\n’)
Python:
读者福利:知道你对Python感兴趣,便准备了这套python学习资料
[[CSDN大礼包:《python兼职资源&全套学习资料》免费分享]](安全链接,放心点击)
对于0基础小白入门:
如果你是零基础小白,想快速入门Python是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案
包括:Python激活码+安装包、Python web开发,Python爬虫,Python数据分析,人工智能、机器学习等习教程。带你从零基础系统性的学好Python!
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(全套教程文末领取哈)
温馨提示:篇幅有限,已打包文件夹,获取方式在:文末
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
检查学习结果。
上述这份完整版的Python全套学习资料已经上传CSDN官方,朋友们如果需要可以微信扫描下方CSDN官方认证二维码 即可领取↓↓↓
[[CSDN大礼包:《python安装包&全套学习资料》免费分享]](安全链接,放心点击)