chapter-1: 增加nofollow
1.nofollow是超链接的一个属性值,只需要在源代码里面加上rel="nofollow” 或者更为正规的rel="external nofollow”即可 即:###。
e.g.:如果A网页上有一个链接指向B网页,但A网页给这个链接加上了 rel="nofollow" 标注,则搜索引擎不把A网页计算入B网页的反向链接。加了nofollow后,蜘蛛是照样抓取的,只是不传递权重(即;不去最终站外链接地址)。
chapter-2: 次导航
chapter-3:robots屏蔽抓取
我们在做网站时,有些目录或者文件不希望搜索引擎蜘蛛搜索到,比如后台,重要页面或文件。那么我们这时该怎么办呢?最简单的方法是修改robots.txt文件和网页中的robots Meta标签。
robots.txt文件是做什么的,robots文件又称robots协议(也称为爬虫协议、爬虫规则、机器人协议等)robots协议是告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议不是命令,它只是一个网站国际互联网界通行的道德规范,知名的引擎蜘蛛都会遵守这个协议,只有一些缺乏职业道德的搜索引擎会绕开它。所以修改这个协议也不是万能保险的。
robots.txt文件是一个放置在网站根目录下的记事本文件,当搜索蜘蛛访问网站时,它会先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
point-1:格式
User-agent: *
Disallow: /plus/ad_js.php
Disallow: /include
我们来看一下它的意思。
robots文件中应同时包含2个域,“User-agent:”和“Disallow:”,其中User-agent:代表允许、 Disallow: 代表禁止。每条指令独立一行。并且User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。
User-agent:
User-agent:指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如:
User-agent: Googlebot
只允许Google的蜘蛛抓取。
User-agent: baiduspider
只允许百度的蜘蛛抓取。
User-agent: *
这个是指允许所有蜘蛛抓取,*为通配符,代表所有搜索引擎都可以抓取。
Disallow:
这个是表示禁止蜘蛛抓取的,以上面的robots文件为例。
Disallow: /plus/ad_js.php
这个是指禁止引擎蜘蛛抓取网站中plus目录中的ad_js.php文件
Disallow: /include
这个是指禁止引擎蜘蛛抓取网站中include整个目录,它和Disallow: /include/不是等同的。
Disallow: /include/
这个是指禁止引擎蜘蛛抓取网站中include目录下面的目录,但include目录中的文件蜘蛛仍然可以抓取。
Disallow: /cgi-bin/*.htm
禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
Disallow: /*?*
禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$
禁止抓取网页所有的.jpg格式的图片
Allow:
这是允许的意思。
Allow: /include/
这里是允许爬寻include目录下面的目录
Allow: /include
这里是允许爬寻include整个目录
Allow: .htm$
仅允许访问以".htm"为后缀的URL。
Allow: .gif$
允许抓取网页和gif格式图片
User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
robots Meta标签屏蔽法
大多数情况下,我们都会使用robots.txt文件对搜索引擎蜘蛛的抓取行为进行限制,这是一种非常规范的做法。除此之外,我们还可以通过网页头部的META标签禁止搜索引擎抓取,这种方法的优点是只针对当前网页,操作起来比较灵活。
格式:
需要注意的是,robots Meta标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取。所以,尽可能的使用robots.txt文件来限制抓取。
chapter-4:站内链接与站外链接的优化
chapter-4--point-1:
什么是网站内链,网站内链就是网站内部的所有自身域名下的链接,一个网站要想获得好的排名和权重,都离不开网站的内链,那么网站的内链如何更全面优化呢,我们一起来学习一下
站内SEO也就是通常所说的网站优化,包括关键词布局、内部链接的优化、以及网站内容的优化。
1.我们常见一个网站的导航栏,其目的主要是为了方便用户快速找到自己想要达到的页面,这就是网站导航栏内链,导航栏内链的意义特别重大,也特别重要,通常情况下,会把重要栏目放在导航栏中,这样会就给放在导航栏中的栏目增加权重,从而可以提高该栏目在搜索引擎中的排名。
2.面包屑导航主要有两方面,一方面方便用户知道自己正在网站的什么位置;另一个就是防止搜索引擎蜘蛛进入死循坏,蜘蛛进入一个页面方便它能通过面包屑导航再爬出去
3.在网站的右边栏,左边栏或者在网站的下方经常会出现是相关阅读,还有随机阅读、推荐阅读、最新阅读,通过这些链接可以更多的链接到其他的页面,增加用户体验,减少网站跳出率,同时也可以能让搜索引擎蜘蛛爬到更多的页面。
4.在网站新闻动态等不断的新增和改动,以及持续的更新操作。最好是手动设置内链,不要想着偷懒,用网站程序自带的自动内链,否则后患无穷,内链的主要意义是给某个页面提升权重和增加用户和蜘蛛的入口。
5.平常多对网站进行优化推广,获得大量的流量和排名(讲得笼统)
6.这里讲几个站内关键词锚文本链接设置的注意要点:
1、锚文本链接的关键词
一定要选择一些核心的关键词、重点要优化的关键词进行锚文本设置,来增加该关键词在网站内部的重点凸显,告知搜索引擎蜘蛛重点进行关注!
2、锚文本链接的数量
一篇文章当中(500字以上),锚文本链接的数量最多不要超过2个。
3、锚文本链接的URL地址
2个关键词锚文本,链接指向的URL地址一定不能一样!要保障链接地址的差异化。
4、锚文本关键词链接与指向页面的相关性
做关键词锚文本的主要目的其实是为了提升用户体验,引导用户点击去访问重点页面,增加重点页面的点击量和访问量,进而提升该页面的权重和排名,获取更多流量。所以设置锚文本的关键词,与链接指向的页面一定要相关性强!
chapter-4--point-2:
站外SEO的工作是脱离网站的优化。也就是说站外的优化是不受网站控制的。完全是通过外部手段对网站进行宣传,来带来流量,带来收益。
具体的优化方式为:
高质量的内容;产生高质量的外部链接最好的方法就是写高质量的内容,你的网站内容使读者产生阅读的欲望。你可以和别的网站交换链接,也可以去其它的站上买链接;
合作伙伴、专业交换 与合作伙伴互相推荐链接。与行业网站、相关性网站进行链接;
分类目录 将网站提交道DMOZ目录、yahoo目录、ODP目录等一些专业目录网站;
社区化书签 将网站加入百度收藏、雅虎收藏、Google书签、QQ书签等社区化书签。
站外锚文本优化在网站排名等优化工作中占的地位甚至比站内优化更强(不做站内优化,只做站外优化,排名照样能倍儿牛),一个SEOER每天做的大部分时间可能都在网站外部优化中,这里还是简要的写出几个需要注意的事项。
1、锚文本多样化
在做网站核心关键词站外锚文本优化的时候,很多朋友一味的只做同一个关键词锚文本,这样的方法是不可取的,我们要保证多样化,要特别注意关键词的稀释度(如a,ab,abcd,efa--都包含a)。
2、锚文本和网址曝光度
一个正常的网站的外部链接不可能都是锚文本,所以要自然的分布锚文本和网址曝光度,既要锚文本的同时也要只是网址文本的存在。在利用竞争对手来做外链里面也说了一些做外链的方法,有兴趣的可以去看下。
3、锚文本增长率
切忌不可短时间倍儿增加,而排名做起来了后,就不做了,这个方法就是黑帽行为,这个相信大家都懂,就不作更多解释了。
锚文本链接,实际上也就是超级链接,它是建立文本关键词和链接之间的一个桥梁,在超级链接里可以是一个关键词,也可以是一句话。它的作用就是指导用户鼠标点击具体会指向哪里。锚文本是影响网站关键词排名的一个相当重要的因素。
锚文本可以理解为链接用的文字,被选取文字在SEO中占据着一个很重要的位置,这主要是由于无论SEO还是SE都是围绕着关键词展开的,而一般关键字都会以锚文本的形式展现出来,它不仅给蜘蛛提供了爬取的路径,也关键词排名中的一个重要算法。
如果在一些权重高的网站里面有指向网站的链接,也就意味着该网站对指向网站的认可,而这个锚文本链接就是该网站对指向网站的一个介绍,这有利于百度蜘蛛对该网站的爬取,从而影响到百度的排名。