如何提高CSDN博客的访问量

        开设CSDN博客也有几天时间了,博客的访问量已逐步逼近7000。虽然不是很多,但小菌已经非常满足了,毕竟在CSDN上开源分享,总结经验才是最重要的,访问量,点赞数,评论数等附加数据则是用来评判博客内容质量好坏以及其本身受欢迎程度。最近小菌去浏览了一下博客周排行榜以及总排行榜的那些博客专家,IT大佬们的博客,不仅粉丝数,获赞数,浏览量让小菌望尘莫及,其博客内容的深度更是让本菌自叹不如(大佬就是大佬(T_T))。同时我也在思考如何向排行榜这个"福地"看齐,首当其冲便是提高博客访问量。于是我在经过仔细的研究之后,总结出了以下方案,决定晒出来与小伙伴们一起分享~
在这里插入图片描述

文章目录

    • 正面例子
      • 多写常用知识点的博客
      • 想办法提高百度排名,注意标题不要写的太复杂
      • 写国内比较新的技术
      • 成系列的写技术文章,有利于增加评论,粉丝,中长期能够大幅度提高日常访问量
      • 成系列的专栏,利于增加粉丝,亦能提高日常访问量
      • "硬核"外挂--脚本刷CSDN访问量
        • 脚本1:循环刷一个用户下的所有博文
        • 脚本2:定时刷指定url的博文
    • 反面教材
    • 总结

正面例子

多写常用知识点的博客

        这一点还是非常的好理解,毕竟常用知识不管在哪个领域受用人群往往都是最多的,而且常用知识一般都偏向于基础化,使用频率高。只要你总结的到位,靠谱,不管发布在哪都是很容易受到大量用户的"追捧"!

想办法提高百度排名,注意标题不要写的太复杂

        百度作为全球最大的中文搜索引擎及最大的中文网站,每日的搜索量,浏览量是相当大的。只要你能在百度上搜索到自己的文章,并且还有一个不错的位置,并且自带一个好的标题,那么访问量日过万(短期)不是问题。(下面附上百度链接提交入口,需要审核)百度搜索资源平台
如何提高CSDN博客的访问量_第1张图片
        对了,这种情况下,一个好的标题就显得非常重要!那什么样的标题才算的上好的标题呢?注意标题一定要精炼,精炼,精炼!(重要的事总要说三遍)像有的文章内容质量不错,结果标题起的不清不楚,平淡无奇,这样做就很容易使博客埋没在"贫民区"。精炼的标题可以让人理解起来更方便,并且小菌还建议大家可以在标题后面适当的增加一些诱人词汇吸引大家的关注,无形之中增加了在同类文章,博客中的竞争力。像写篇介绍Java基础的博客,你就可以用《Java零基础入门学习(小白也能看懂!)》类似的大家可以自行发挥!

写国内比较新的技术

        这个就对自身学识有一定的要求了。在IT圈,新的技术不管在哪就像娱乐新闻一样走到哪里都自带流量。像近几年比较火的"区块链",“大数据”,“云计算”,“AI”…如果你有幸在这些领域工作,写出"高访问量"的文章应该不是很难!尤其是中短期,效果很好!

区块链

云计算
如何提高CSDN博客的访问量_第2张图片

大数据

如何提高CSDN博客的访问量_第3张图片

人工智能

成系列的写技术文章,有利于增加评论,粉丝,中长期能够大幅度提高日常访问量

        像下面几位大佬学习!(仅举出几个例子,还有很多!)
如何提高CSDN博客的访问量_第4张图片
如何提高CSDN博客的访问量_第5张图片

成系列的专栏,利于增加粉丝,亦能提高日常访问量

        这里以博客专家二师兄-公众号-程序新视界为例
如何提高CSDN博客的访问量_第6张图片
如何提高CSDN博客的访问量_第7张图片

"硬核"外挂–脚本刷CSDN访问量

        这里小菌不提倡大家这么做,但作为一个新用户名的话,前期刷点访问量美化数据还是有点用的(真香,哈哈٩(๑❛ᴗ❛๑)۶)。直接上脚本吧,同样还是用python写的。

脚本1:循环刷一个用户下的所有博文

import requests
import re
import time
payload = ""
# 请求头
headers = {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate, br",
    "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
    "Cookie": "l=AurqcPuigwQdnQv7WvAfCoR1OlrRQW7h; isg=BHp6mNB79CHqYXpVEiRteXyyyKNcg8YEwjgLqoRvCI3ddxqxbLtOFUBGwwOrZ3ad; thw=cn; cna=VsJQERAypn0CATrXFEIahcz8; t=0eed37629fe7ef5ec0b8ecb6cd3a3577; tracknick=tb830309_22; _cc_=UtASsssmfA%3D%3D; tg=0; ubn=p; ucn=unzbyun; x=e%3D1%26p%3D*%26s%3D0%26c%3D0%26f%3D0%26g%3D0%26t%3D0%26__ll%3D-1%26_ato%3D0; miid=981798063989731689; hng=CN%7Czh-CN%7CCNY%7C156; um=0712F33290AB8A6D01951C8161A2DF2CDC7C5278664EE3E02F8F6195B27229B88A7470FD7B89F7FACD43AD3E795C914CC2A8BEB1FA88729A3A74257D8EE4FBBC; enc=1UeyOeN0l7Fkx0yPu7l6BuiPkT%2BdSxE0EqUM26jcSMdi1LtYaZbjQCMj5dKU3P0qfGwJn8QqYXc6oJugH%2FhFRA%3D%3D; ali_ab=58.215.20.66.1516409089271.6; mt=ci%3D-1_1; cookie2=104f8fc9c13eb24c296768a50cabdd6e; _tb_token_=ee7e1e1e7dbe7; v=0",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64;` rv:47.0) Gecko/20100101 Firefox/47.0"
}
# 获得文章列表urls
def getUrls(url):

    # 发送请求
    resp = requests.request("GET", url, data=payload, headers=headers)
    #设置解码方式
    resp.encoding=resp.apparent_encoding
    #这里会用设置的解码方式解码
    html_source = resp.text
    # 正则表达式,取出网页中的url链接(一些寻找注入点的工具也是这么做出来的)
    urls = re.findall("https://[^>\";\']*\d",html_source)
    new_urls=[]
    for url in urls:
        if 'details' in url:
            if url not in new_urls:
                new_urls.append(url)
    return new_urls

# 这里替换成你要刷访问量博客的首页  
urls = getUrls("你的博客首页地址")
while True:
    for url in urls:
        requests.request("GET", url, data=payload, headers=headers)
        print(url, "Ok")
        time.sleep(5)
    time.sleep(5)

脚本2:定时刷指定url的博文

# -*- coding: utf-8 -*-
 
import urllib2 
import random
import time
import requests
 
proxy_list=[]
 
def get_proxy_list():
    global proxy_list
    print "导入proxy_list...".decode('utf-8')
    #ip文件可以浏览我上文链接文章“多线程爬虫——抓取代理ip”
    f=open("ip.txt")
    #从文件中读取的line会有回车,要把\n去掉
    line=f.readline().strip('\n')
    while line:
        proxy_list.append(line)
        line=f.readline().strip('\n')
    f.close()
 
def start():
    #总次数和有效次数
    times=0
    finished_times=0
    #无限刷
    while 1:
        user_agent_list=[
            {'Mozilla/5.0(compatible;MSIE9.0;WindowsNT6.1;Trident/5.0)'},
            {'Mozilla/4.0(compatible;MSIE8.0;WindowsNT6.0;Trident/4.0)'},
            {'Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)'},
            {'Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Version/11.11'},
            {'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1'},
            {'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER'},
            {'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)'},
            {'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0'},
            {'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36'},  
            {'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'} 
        ]
 
        referer_list=[
            {'http://blog.csdn.net/dala_da/article/details/79401163'},
            {'http://blog.csdn.net/'},
            {'https://www.sogou.com/tx?query=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F&hdq=sogou-site-706608cfdbcc1886-0001&ekv=2&ie=utf8&cid=qb7.zhuye&'},
            {'https://www.baidu.com/s?tn=98074231_1_hao_pg&word=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F'}
        ]
        #想要刷的blog的url
        url='http://blog.csdn.net/dala_da/article/details/79401163'
        #随机user_agent和Referer
        header={'User-Agent':random.choice(user_agent_list), 
                'Referer':random.choice(referer_list)
        }
        #依次从proxy_list中取
        ip=proxy_list[times%len(proxy_list)]
        #设置代理,格式如下
        proxy_ip = 'http://' + ip
        proxy_ips = 'https://' + ip
        proxy = {'https': proxy_ips, 'http': proxy_ip}
    
        try:
            response=requests.get(url, headers=header, proxies=proxy)
        except:
            #无响应则print出该代理ip
            print '代理出问题啦:'.decode('utf-8')+proxy["https"]
            time.sleep(0.1)
        else:
            print ('已刷%d次,%s')%(finished_times+1,proxy["https"])
            time.sleep(random.random())
            finished_times+=1
 
        times+=1
        #每当所有的代理ip刷过一轮,延时15秒
        if not times%len(proxy_list):
            time.sleep(15)
 
if __name__=="__main__":
    get_proxy_list()
    start()

        上述的两个脚本是小菌在网上搜索到的,并亲自测试过,短期内是没问题。但貌似目前已经被CSDN的服务端修复了,毕竟现在爬虫这么猖狂,反爬虫的技术也一直在升级!感兴趣的小伙伴们可以自行去测试,研究一下反爬机制哦~

反面教材

        说了那么多正面例子,让我们来看看反面教材(小菌表示懒得打码了(▼ヘ▼#))。
如何提高CSDN博客的访问量_第8张图片
如何提高CSDN博客的访问量_第9张图片
如何提高CSDN博客的访问量_第10张图片
        虽然不是什么"正义人士",但本菌坚决抵制"标题党"们的这种行为,好好的CSDN口碑就是被这些人士给弄得乌烟瘴气的!

总结

        关于如何快速提高CSDN的访问量,本次的分享就到这里了,小伙伴们不妨去试试看啦(反面例子就不要去试了)~有什么疑惑或者好的建议欢迎评论区积极留言,小菌都会积极回复哒(๑╹◡╹)ノ"""喜欢的小伙伴们记得点赞关注小菌吖。点赞加关注,小白不迷路…
如何提高CSDN博客的访问量_第11张图片

你可能感兴趣的:(计算机,云计算/大数据)