CSDN博客刷阅读数脚本,

根据我的分析,csdn博客阅读量大概是同一用户一分钟算是一次阅读量,就是大概一分钟之内同一用户无论你访问多少次,都是算一次的阅读量,
CSDN博客刷阅读数脚本,_第1张图片
因为csdn现在是必须登录才能查看博客文章,不知道以前是怎么样的,所以还需要通过访问的时候带上你已经登陆账号的cookie值,才能访问一篇博客,csdn就是通过这个cookie值来判断用户是否登录,所以不登录账号就不能访问博客文章,
本身代码没有什么难的,就是找到cookie值比较麻烦,
一贯的做法就是,登录csdn,右键检查,点Network(火狐浏览器显示的是网络),
CSDN博客刷阅读数脚本,_第2张图片
现在地下的地方是空白,此时刷新一下网页就会出现请求
CSDN博客刷阅读数脚本,_第3张图片
随便点击一个,就会看到很多信息,
CSDN博客刷阅读数脚本,_第4张图片
在请求头(Headers)里面有各种信息,我们只需要找到cookie
试了很多了浏览器,发现只有QQ浏览器的比较容易找的,并且能用。
CSDN博客刷阅读数脚本,_第5张图片

代码附上

import requests
import time
from fake_useragent import UserAgent
from sumup.agency_ip import ReptileIp
import random
def test():
    num = 0
    while 1:
        __ua = UserAgent()
        headers = {
            'User-Agent': __ua.random,
            # 这个cookie中间的我就省略了,
            'Cookie':'tipShow=true; 省略...省略t_6bcd52f51e9b3dce32bec4a3997715ac=1545482702'
                }
	# 这个就是上一篇博客中写的代理ip,不懂得可以看上一篇博客,在后面附上链接
	# 不想用代理ip,也可不用,只能说慎用,你懂得,
        ip = ReptileIp('https://www.xicidaili.com/nn/2')
        proxies = ip.verify_ip()
        req = requests.get('https://blog.csdn.net/weixin省略...536',headers=headers,proxies=proxies)
        print(req)   # 为了看到是否访问成功这里打印一下,
        # 因为猜测是同一用户大概一分钟算一次阅读量,所以此处暂停一段时间50~70s
        # 此处要用随机,不然访问间隔一致,很容易导致被封的风险,因为使用的是自己账号的cookie,哈哈。。。
        time.sleep(random.randint(50,70))

if __name__ == '__main__':
    # 这是导入的另一个代理ip脚本,上一篇博客下的在此时得到应用,嘻嘻,
    ip = ReptileIp('https://www.xicidaili.com/nn/2')
    # 获取代理ip
    ip.run()
    test()

上面说用到了代理ip,这里用的是上一篇博客所写的代理ip的脚本,链接[python 爬虫 自动获取代理ip],
(https://blog.csdn.net/weixin_43796109/article/details/85217795)
另外,不足之处还请指教,,,

你可能感兴趣的:(python爬虫)