1.Python 基础学习
首先,我们要用 Python 写爬虫,肯定要了解 Python 的基础吧,万丈高楼平地起,不能忘啦那地基,哈哈,那么我就分享一下自己曾经看过的一些 Python 教程,小伙伴们可以作为参考。
慕课网 Python 教程
曾经有一些基础的语法是在慕课网上看的,上面附有一些练习,学习完之后可以作为练习,感觉效果还是蛮不错的,不过稍微遗憾的是内容基本上都是最基础的,入门开始的话,就这个吧 学习网址:慕课网 Python 教程
廖雪峰 Python 教程
后来,我发现了廖老师的 Python 教程,讲的那是非常通俗易懂哪,感觉也是非常不错,大家如果想进一步了解 Python 就看一下这个吧。 学习网址:廖雪峰 Python 教程
简明 Python 教程
还有一个我看过的,简明 Python 教程,感觉讲的也不错 学习网址:简明 Python 教程
汪海的实验室
这是我的本科实验室学长,入门的时候参考的他的文章,自己重新做了总结,后来这些系列文章又在他的基础上增加了一些内容。 学习网址:汪海的实验室
2.Python urllib 和 urllib2 库的用法
urllib 和 urllib2 库是学习 Python 爬虫最基本的库,利用这个库我们可以得到网页的内容,并对内容用正则表达式提取分析,得到我们想要的结果。这个在学习过程中我会和大家分享的。
3.Python 正则表达式
Python 正则表达式是一种用来匹配字符串的强有力的武器。它的设计思想是用一种描述性的语言来给字符串定义一个规则,凡是符合规则的字符串,我们就认为它 “匹配” 了,否则,该字符串就是不合法的。这个在后面的博文会分享的。
HTML, XML 源数据 选择及提取 的内置支持 提供了一系列在 spider 之间共享的可复用的过滤器 (即 Item Loaders),对智能处理爬取数据提供了内置支持。 通过 feed 导出 提供了多格式 (JSON、CSV、XML),多存储后端 (FTP、S3、本地文件系统) 的内置支持 提供了 media pipeline,可以 自动下载 爬取到的数据中的图片 (或者其他资源)。 高扩展性。您可以通过使用 signals ,设计好的 API (中间件,extensions, pipelines) 来定制实现您的功能。 内置的中间件及扩展为下列功能提供了支持: cookies and session 处理 HTTP 压缩 HTTP 认证 HTTP 缓存 user-agent 模拟 robots.txt 爬取深度限制 针对非英语语系中不标准或者错误的编码声明,提供了自动检测以及健壮的编码支持。 支持根据模板生成爬虫。在加速爬虫创建的同时,保持在大型项目中的代码更为一致。详细内容请参阅 genspider 命令。 针对多爬虫下性能评估、失败检测,提供了可扩展的 状态收集工具 。 提供 交互式 shell 终端,为您测试 XPath 表达式,编写和调试爬虫提供了极大的方便 提供 System service, 简化在生产环境的部署及运行 内置 Web service, 使您可以监视及控制您的机器 内置 Telnet 终端 ,通过在 Scrapy 进程中钩入 Python 终端,使您可以查看并且调试爬虫 Logging 为您在爬取过程中捕捉错误提供了方便 支持 Sitemaps 爬取 具有缓存的 DNS 解析器
官方文档:http://doc.scrapy.org/en/latest/ 等我们掌握了基础的知识,再用这个 Scrapy 框架吧! 扯了这么多,好像没多少有用的东西额,那就不扯啦! 下面开始我们正式进入爬虫之旅吧!