本教程描述的爬取方案定档与2020年10月26日
郑重申明:该文章介绍的技术仅供用于学习,不可恶意攻击各大短视频平台。对各大短视频平台服务器造成的任何损失,后果自负。
Python爬虫:多平台短视频去水印下载器
视频被压缩了,原视频高清地址:https://www.bilibili.com/video/BV1cr4y1w7yz/
转载请标明作者和原文地址~
作者:西涯侠
CSDN个人主页:是西涯侠
文章地址:https://blog.csdn.net/qq_41707308/article/details/109293116
本软件采用Python编写,数据爬取使用requests库,并使用PyQt5编写GUI界面,给普通用户添加易用性:
首先获取分享链接,打开抖音的的一个视频(所有分享视频都可以用同样方法),选择右下角分享按钮,点击复制链接。
通过查看复制的链接可以发现,链接中不单单有URL地址,还夹杂着一些文字符号所以,第一步就是先提取复制的链接中包含的URL地址和文件名:
def compile_name_url(url_text):
# 正则匹配分享链接,获取链接非空字符前的几个字符作为文件名
video_name = re.match(r'\S*', url_text)
if video_name:
video_name = video_name.group()
print(video_name)
# 正则匹配分享链接,获取链接
first_url = re.search(r'https://v.douyin.com/.*?/', url_text)
if first_url:
first_url = first_url.group()
print('第一次url==》', first_url)
return first_url, video_name
将链接复制到浏览器中,抓取数据包分析数据:可以发现,需要的目标视频链接就在第三张图中返回的json数据中,只需要获取对应的字段就行了。
然而事情并没有我们想象的那么简单,抓取了链接后获取到的URL直接复制到浏览器中展示的结果还是有水印的(如下图),仔细观察URL地址,会发现playwm这个字段,而wm就是water mark的缩写,也就是水印。把wm去掉后再次访问,就会得到无水印的地址。大功告成!
代码实现:
def first_request(first_url):
headers = {
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'accept-encoding': 'gzip, deflate, br',
'accept-language': 'zh-CN,zh;q=0.9',
'sec-fetch-dest': 'document',
'sec-fetch-moe': 'navigate',
'sec-fetch-site': 'none',
'upgrade-insecure-requests': '1',
'user-agent': 'Mozilla/5.0 (Linux; Android 5.0; SM-G900P Build/LRX21T) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4195.1 Mobile Safari/537.36'
}
response = requests.get(first_url, headers=headers)
print('第二次url==》', response.url) # 获取第一次重定向后的url
# 截取第二次请求需要的参数
content = re.search(r'\d\d*\d', response.url).group()
params = {
"item_ids": content}
return params
def second_request(params):
response = requests.get('https://www.iesdouyin.com/web/api/v2/aweme/iteminfo/', params=params)
result = response.json() # 获得第二次请求的json,并从json中查找第三次请求需要的url
# print(result)
second_url = result['item_list'][0]['video']['play_addr']['url_list'][0]
play_url = re.sub(r'playwm', 'play', second_url)
print('第三次url==》', play_url)
return play_url
快手平台的就简单一些,同样的获取链接方式:
提取URL和视频名,同抖音一样的提取方式,这里就不重复展示代码了,直接开始分析链接请求内容:
在返回的文本内容中包含有无水印的视频,并且名字也很明显了“srcNoMark”(无水印资源),直接向这个URL发起请求即可。我们就可以欣赏艾北小姐姐唱歌了!!!
代码实现:
def second_request(second_url):
headers = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Connection': 'keep-alive',
'Cookie': 'did=web_209e6a4e64064f659be838aca3178ec1; didv=1603355622000',
'Host': 'c.kuaishou.com',
'Sec-Fetch-Dest': 'document',
'Sec-Fetch-Mode': 'navigate',
'Sec-Fetch-Site': 'none',
'Upgrade-Insecure-Requests': '1',
'User-Agent': 'Mozilla/5.0 (Linux; Android 5.0; SM-G900P Build/LRX21T) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4195.1 Mobile Safari/537.36'
}
response = requests.get(second_url, headers=headers)
content = response.text
video_url = re.search(r'"srcNoMark":"https://txmov2.a.yximgs.com/.*?\"', content).group()[13:-1]
print(video_url)
return video_url
同样的套路,先获取链接:
接下来,把链接复制到浏览器,抓包进行分析,可以发现,视频所在的URL地址就保存在一个请求的json文件里面。然后我又发现这是个post请求,并且有参数,这个参数就得在网页中分析
先回到第一个请求中来寻找是否有参数的存在,在仔细观察下发现,所需要的的参数feedid其实就是一个链接中的一部分,所以就得更换一下爬取的策略,先获取链接中的feedid,得到参数后再继续下一步操作,才能得到视频。
代码实现:
def compile_name_url(url_text):
video_name = re.findall(r'(\w*)', url_text)
feedid = re.findall(r'feed/(\w*)', url_text)
if video_name and feedid:
video_name = video_name[0]
feedid = feedid[0]
return feedid, video_name
def first_request(feedid):
headers = {
'accept': 'application/json',
'accept-encoding': 'gzip, deflate, br',
'accept-language': 'zh-CN,zh;q=0.9',
'content-length': '84',
'content-type': 'application/json',
'cookie': 'RK=BuAQ1v+yV3; ptcz=6f7072f84fa03d56ea047b407853df6a5375d719df1031ef066d11b09fb679e4; pgv_pvi=8434466816; pgv_pvid=1643353500; tvfe_boss_uuid=3b10306bf3ae662b; o_cookie=1074566721; pac_uid=1_1074566721; ied_qq=o1074566721; LW_sid=k1Y5n9s3Y0K866h7P246v4k6o8; LW_uid=u1v5i9V3p0L806m7R226s4W7F1; eas_sid=J1p5G9s3A0h8Z6c7l2a6x4E7w7; iip=0; ptui_loginuin=1074566721; person_id_bak=5881015637151283; person_id_wsbeacon=5920911274348544; wsreq_logseq=341295039',
'origin': 'https://h5.weishi.qq.com',
'sec-fetch-dest': 'empty',
'sec-fetch-mode': 'cors',
'sec-fetch-site': 'same-origin',
'user-agent': 'Mozilla/5.0 (Linux; Android 5.0; SM-G900P Build/LRX21T) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4195.1 Mobile Safari/537.36',
'x-requested-with': 'XMLHttpRequest'
}
rejson = {
'datalvl': "all",
'feedid': feedid,
'recommendtype': '0',
'_weishi_mapExt': '{}'
}
first_url = 'https://h5.weishi.qq.com/webapp/json/weishi/WSH5GetPlayPage'
response = requests.post(first_url, headers=headers, json=rejson)
result = response.json()
video_url = result['data']['feeds'][0]['video_url']
return video_url
同样步骤,先获取链接。
观察分享的字符串可以看得出来,这次并没有把视频的名字加进来,所有视频的名字只能从请求的内容里获取了。先把链接放在浏览器中分析一下数据。
这次同样发现,这是个post请求,并且同样需要参数,鉴于微视的经验,仔细查看了一下原分享链接,果然不出所料,所要的两个变化的参数就隐藏在链接中。只要获取pid和mid两个参数,然后发起请求就得到视频了。
代码实现:
def compile_name_url(url_text):
headers = {
'Host': 'share.ippzone.com',
'Origin': 'http://share.ippzone.com',
'Referer': url_text,
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36 Edg/84.0.522.52'
}
mid = re.findall(r'mid=(\d*)', url_text)
pid = re.findall(r'pid=(\d*)', url_text)
if mid and pid:
mid = int(mid[0])
pid = int(pid[0])
parmer = {
'mid': mid,
'pid': pid,
'type': 'post'
}
url = 'http://share.ippzone.com/ppapi/share/fetch_content'
r = requests.post(url, headers=headers, json=parmer)
result=r.json()
video_name = result['data']['post']['content'].replace(' ', '')
video_url = result['data']['post']['videos'][str(result['data']['post']['imgs'][0]['id'])]['url']
return video_url, video_name
这是作为一个编程初学者第一次写博客,写的可能不太好不够清晰,纯属技术交流分享,所分享内容均只作学习研究用,不可对各大视频平台服务器进行恶意攻击。
最后希望大家转载请注明出处~
作者:西涯侠
CSDN个人主页:是西涯侠
文章地址:https://blog.csdn.net/qq_41707308/article/details/109293116