Python爬虫:多平台短视频去水印下载器

Python爬虫:多平台短视频去水印下载器

  • 功能介绍
  • 各平台分解
    • 抖音
    • 快手
    • 微视
    • 皮皮搞笑
  • 总结

本教程描述的爬取方案定档与2020年10月26日

郑重申明:该文章介绍的技术仅供用于学习,不可恶意攻击各大短视频平台。对各大短视频平台服务器造成的任何损失,后果自负。

Python爬虫:多平台短视频去水印下载器

视频被压缩了,原视频高清地址:https://www.bilibili.com/video/BV1cr4y1w7yz/

转载请标明作者和原文地址~

作者:西涯侠
CSDN个人主页:是西涯侠
文章地址:https://blog.csdn.net/qq_41707308/article/details/109293116

软件界面:
Python爬虫:多平台短视频去水印下载器_第1张图片

功能介绍

本软件采用Python编写,数据爬取使用requests库,并使用PyQt5编写GUI界面,给普通用户添加易用性:

  1. 完美去水印 ,收藏好看的视频再也不用担心水印和烦人的片尾;
  2. 多平台支持 ,支持抖音,快手,微视,皮皮搞笑,涵盖大部分用户常用小视频软件;
  3. GUI界面设计 ,将会带来快捷易上手体验,小白也会用;
  4. 增加了 进度条显示 功能,你可以直观的看到程序的运行过程;
  5. 采取多线程获取进行数据爬取,防止界面假死;

各平台分解

抖音

首先获取分享链接,打开抖音的的一个视频(所有分享视频都可以用同样方法),选择右下角分享按钮,点击复制链接。

获取链接方式:
Python爬虫:多平台短视频去水印下载器_第2张图片

复制的链接:
Python爬虫:多平台短视频去水印下载器_第3张图片

通过查看复制的链接可以发现,链接中不单单有URL地址,还夹杂着一些文字符号所以,第一步就是先提取复制的链接中包含的URL地址和文件名:

    def compile_name_url(url_text):
        # 正则匹配分享链接,获取链接非空字符前的几个字符作为文件名
        video_name = re.match(r'\S*', url_text)
        if video_name:
            video_name = video_name.group()
            print(video_name)

        # 正则匹配分享链接,获取链接
        first_url = re.search(r'https://v.douyin.com/.*?/', url_text)
        if first_url:
            first_url = first_url.group()
            print('第一次url==》', first_url)

        return first_url, video_name

将链接复制到浏览器中,抓取数据包分析数据:可以发现,需要的目标视频链接就在第三张图中返回的json数据中,只需要获取对应的字段就行了。

Python爬虫:多平台短视频去水印下载器_第4张图片
Python爬虫:多平台短视频去水印下载器_第5张图片
Python爬虫:多平台短视频去水印下载器_第6张图片

然而事情并没有我们想象的那么简单,抓取了链接后获取到的URL直接复制到浏览器中展示的结果还是有水印的(如下图),仔细观察URL地址,会发现playwm这个字段,而wm就是water mark的缩写,也就是水印。把wm去掉后再次访问,就会得到无水印的地址。大功告成!

Python爬虫:多平台短视频去水印下载器_第7张图片

代码实现:

    def first_request(first_url):
        headers = {
     
            'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
            'accept-encoding': 'gzip, deflate, br',
            'accept-language': 'zh-CN,zh;q=0.9',
            'sec-fetch-dest': 'document',
            'sec-fetch-moe': 'navigate',
            'sec-fetch-site': 'none',
            'upgrade-insecure-requests': '1',
            'user-agent': 'Mozilla/5.0 (Linux; Android 5.0; SM-G900P Build/LRX21T) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4195.1 Mobile Safari/537.36'
        }

        response = requests.get(first_url, headers=headers)

        print('第二次url==》', response.url)  # 获取第一次重定向后的url

        # 截取第二次请求需要的参数
        content = re.search(r'\d\d*\d', response.url).group()
        params = {
     "item_ids": content}

        return params

    def second_request(params):
        response = requests.get('https://www.iesdouyin.com/web/api/v2/aweme/iteminfo/', params=params)
        result = response.json()  # 获得第二次请求的json,并从json中查找第三次请求需要的url
        # print(result)
        second_url = result['item_list'][0]['video']['play_addr']['url_list'][0]

        play_url = re.sub(r'playwm', 'play', second_url)
        print('第三次url==》', play_url)
        return play_url

快手

快手平台的就简单一些,同样的获取链接方式:

获取链接方式:
Python爬虫:多平台短视频去水印下载器_第8张图片

复制的链接:
在这里插入图片描述

提取URL和视频名,同抖音一样的提取方式,这里就不重复展示代码了,直接开始分析链接请求内容:

Python爬虫:多平台短视频去水印下载器_第9张图片
Python爬虫:多平台短视频去水印下载器_第10张图片

在返回的文本内容中包含有无水印的视频,并且名字也很明显了“srcNoMark”(无水印资源),直接向这个URL发起请求即可。我们就可以欣赏艾北小姐姐唱歌了!!!

代码实现:

    def second_request(second_url):
        headers = {
     
            'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
            'Accept-Encoding': 'gzip, deflate, br',
            'Accept-Language': 'zh-CN,zh;q=0.9',
            'Connection': 'keep-alive',
            'Cookie': 'did=web_209e6a4e64064f659be838aca3178ec1; didv=1603355622000',
            'Host': 'c.kuaishou.com',
            'Sec-Fetch-Dest': 'document',
            'Sec-Fetch-Mode': 'navigate',
            'Sec-Fetch-Site': 'none',
            'Upgrade-Insecure-Requests': '1',
            'User-Agent': 'Mozilla/5.0 (Linux; Android 5.0; SM-G900P Build/LRX21T) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4195.1 Mobile Safari/537.36'
        }
        response = requests.get(second_url, headers=headers)

        content = response.text
        video_url = re.search(r'"srcNoMark":"https://txmov2.a.yximgs.com/.*?\"', content).group()[13:-1]
        print(video_url)

        return video_url

微视

同样的套路,先获取链接:

获取链接方式:
Python爬虫:多平台短视频去水印下载器_第11张图片

获取链接方式:
Python爬虫:多平台短视频去水印下载器_第12张图片

接下来,把链接复制到浏览器,抓包进行分析,可以发现,视频所在的URL地址就保存在一个请求的json文件里面。然后我又发现这是个post请求,并且有参数,这个参数就得在网页中分析

Python爬虫:多平台短视频去水印下载器_第13张图片
Python爬虫:多平台短视频去水印下载器_第14张图片

先回到第一个请求中来寻找是否有参数的存在,在仔细观察下发现,所需要的的参数feedid其实就是一个链接中的一部分,所以就得更换一下爬取的策略,先获取链接中的feedid,得到参数后再继续下一步操作,才能得到视频。

Python爬虫:多平台短视频去水印下载器_第15张图片

代码实现:

    def compile_name_url(url_text):
        video_name = re.findall(r'(\w*)', url_text)
        feedid = re.findall(r'feed/(\w*)', url_text)
        if video_name and feedid:
            video_name = video_name[0]
            feedid = feedid[0]

        return feedid, video_name

    def first_request(feedid):
        headers = {
     
            'accept': 'application/json',
            'accept-encoding': 'gzip, deflate, br',
            'accept-language': 'zh-CN,zh;q=0.9',
            'content-length': '84',
            'content-type': 'application/json',
            'cookie': 'RK=BuAQ1v+yV3; ptcz=6f7072f84fa03d56ea047b407853df6a5375d719df1031ef066d11b09fb679e4; pgv_pvi=8434466816; pgv_pvid=1643353500; tvfe_boss_uuid=3b10306bf3ae662b; o_cookie=1074566721; pac_uid=1_1074566721; ied_qq=o1074566721; LW_sid=k1Y5n9s3Y0K866h7P246v4k6o8; LW_uid=u1v5i9V3p0L806m7R226s4W7F1; eas_sid=J1p5G9s3A0h8Z6c7l2a6x4E7w7; iip=0; ptui_loginuin=1074566721; person_id_bak=5881015637151283; person_id_wsbeacon=5920911274348544; wsreq_logseq=341295039',
            'origin': 'https://h5.weishi.qq.com',
            'sec-fetch-dest': 'empty',
            'sec-fetch-mode': 'cors',
            'sec-fetch-site': 'same-origin',
            'user-agent': 'Mozilla/5.0 (Linux; Android 5.0; SM-G900P Build/LRX21T) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4195.1 Mobile Safari/537.36',
            'x-requested-with': 'XMLHttpRequest'
        }
        rejson = {
     
            'datalvl': "all",
            'feedid': feedid,
            'recommendtype': '0',
            '_weishi_mapExt': '{}'
        }
        first_url = 'https://h5.weishi.qq.com/webapp/json/weishi/WSH5GetPlayPage'
        response = requests.post(first_url, headers=headers, json=rejson)
        result = response.json()
        video_url = result['data']['feeds'][0]['video_url']

        return video_url

皮皮搞笑

同样步骤,先获取链接。

获取链接方式:
Python爬虫:多平台短视频去水印下载器_第16张图片

复制的链接:
Python爬虫:多平台短视频去水印下载器_第17张图片

观察分享的字符串可以看得出来,这次并没有把视频的名字加进来,所有视频的名字只能从请求的内容里获取了。先把链接放在浏览器中分析一下数据。

Python爬虫:多平台短视频去水印下载器_第18张图片
Python爬虫:多平台短视频去水印下载器_第19张图片

这次同样发现,这是个post请求,并且同样需要参数,鉴于微视的经验,仔细查看了一下原分享链接,果然不出所料,所要的两个变化的参数就隐藏在链接中。只要获取pid和mid两个参数,然后发起请求就得到视频了。

Python爬虫:多平台短视频去水印下载器_第20张图片

代码实现:

    def compile_name_url(url_text):
        headers = {
     
            'Host': 'share.ippzone.com',
            'Origin': 'http://share.ippzone.com',
            'Referer': url_text,
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36 Edg/84.0.522.52'
        }
        mid = re.findall(r'mid=(\d*)', url_text)
        pid = re.findall(r'pid=(\d*)', url_text)
        if mid and pid:
            mid = int(mid[0])
            pid = int(pid[0])

        parmer = {
     
            'mid': mid,
            'pid': pid,
            'type': 'post'
        }
        url = 'http://share.ippzone.com/ppapi/share/fetch_content'
        r = requests.post(url, headers=headers, json=parmer)
        result=r.json()
        video_name = result['data']['post']['content'].replace(' ', '')
        video_url = result['data']['post']['videos'][str(result['data']['post']['imgs'][0]['id'])]['url']
        return video_url, video_name

总结

这是作为一个编程初学者第一次写博客,写的可能不太好不够清晰,纯属技术交流分享,所分享内容均只作学习研究用,不可对各大视频平台服务器进行恶意攻击。

最后希望大家转载请注明出处~

作者:西涯侠
CSDN个人主页:是西涯侠
文章地址:https://blog.csdn.net/qq_41707308/article/details/109293116

你可能感兴趣的:(python,爬虫)