如何自己动手获取大量知乎网民数据?

前言

去年在接触Java爬虫的时候,接触到了一个关于知乎的爬虫。个人觉得写的非常好,当时抓取的效率和成功率还是特别特别高,现在可能知乎反扒做的更好,这个开源知乎爬虫没之前抓取的那么顺利了。我记得当时在我的i7+8g的机器上爬了将近两天,大概爬取了60多w的数据。当然,实际抓取的用户数据数量肯定比这个多,只是持久化过程不同步而已,也就是抓取的好几个用户可能只有一个存入数据库中。

为什么推荐这个项目呢?

如果你自己去阅读这个开源知乎爬虫的源码你会发现它在Ip代理以及多线程的处理上都特别好,适合大家去阅读学习。

这个项目的github地址为:https://github.com/wycm/zhihu-crawler

项目的使用方式

下载

git clone https://github.com/wycm/zhihu-crawler.git 克隆项目到本地



或关注微信公众号:“Java面试通过手册”

回复:“知乎爬虫”即可获取知乎网民数据+项目源码

使用

成功导入Maven项目后运行Main.java即可。

如果你需要保存到数据库(Mysql)

修改配置文件config.properties

然后修改
db.enable = true
再把下面其他参数修改成你的数据库的参数。

你可能感兴趣的:(Java基础知识)