【Python项目】简单爬虫批量获取资源网站的下载链接

简单爬虫批量获取资源网站的下载链接

项目链接:https://github.com/RealIvyWong/GotDownloadURL

1 由来

自己在收集剧集资源的时候,这些网站的下载链接还要手动一个一个复制到百度云离线下载里,稍微懂了一点编程就不想做这种无意义的劳动了。于是就写了一个这样的一个小项目。

目前支持的网站有美剧天堂,追新番。(其他网站要不就是我还不知道,要不就是资源并不好……)

2 环境依赖

使用的Python 3.7

需要额外安装的应该就只有bs4。

直接使用pip就能安装。

pip install bs4

3 使用方法

3.1 美剧天堂

代码地址:美剧天堂

比如说你看到了神盾局特工第五季的页面(https://www.meijutt.com/content/meiju23091.html)。

然后想要第1个标签【中字720P】下面的这些链接。

那么就把代码里的这一段的参数改一改。

就可以直接Run了。

成功大概是这样的画面。

得到的txt如下。

然后把这些复制到下载工具就好啦!

3.2 追新番

比如说你看到了桥本环奈的新剧我是大哥大的页面(http://zhuixinfan.com/viewtvplay-930.html)。

资源列表是这样的。

一共有十集,那么把代码里的参数改一下。大概下面这样,ep_n表示的是集数,为什么要这个参数,后面再说。

然后可以直接Run了。

成功的画面是这样。

得到的txt是这样。

然后把这些复制到下载工具就好啦!

但是!这个追新番……网页,有点傻。比如李狗嗨的页面!竟然是把资源全部都挤在一页!我惊呆了……大家都不想下重复资源的,要下就下高清点的资源,所以代码里对此进行了选择。

以及日剧里是有SP的概念的,不一定是Ep,所以要用户告诉程序一共要下多少个资源(集数)。

4 Contact Me

如果有什么Bug,或者有其他比较好的资源网站(误。请联系我!([email protected])

转载于:https://www.cnblogs.com/IvyWong/p/10132243.html

你可能感兴趣的:(【Python项目】简单爬虫批量获取资源网站的下载链接)