《搜索引擎优化高级编程》读书笔记

《搜索引擎优化高级编程》读书笔记
搜索引擎友好的URL地址
URL Rewrite
REST

URL地址标准化 www.example.com VS example.com
通常这两个地址指向相同的内容,为了避免重复内容,可以把example.com永久重定向到www.example.com

内容重定向和HTTP状态代码
基于JavaScript的重定向(不推荐使用,可能导致某种类型的惩罚)
document.location = 'http://www.example.com'

基于meta的重定向(延迟小于10秒时不推荐使用)
<meta http-equiv="refresh" content="10;url=http://www.example.com/">

重复内容
网站内部不同链接指向相同的内容可能对网站权重产生负面的效应,明智的做法是从网站中尽可能多的消除重复内容。

重复内容的起因:
网站结构导致的重复内容,如打印友好(print-friendly)的页面、有重复标题或meta标签值的页面、使用基于URL地址的session id等。

两种排除页面的方法:
使用robots meta标签 <meta name="robots" content="noindex, nofollow" />
robots.txt模式排除

有重复标题或meta标签值的页面:创建唯一的meta标签或者不创建meta标签
使用基于URL地址的session id: 使用基于cookie的session

黑帽SEO
什么是黑帽SEO
笼统的说,所有使用作弊手段或可疑手段的,都可以称为黑帽SEO。比如说垃圾链接,隐藏网页,桥页,关键词堆砌等等。在Blog评论中添加与主题无关的网站链接,试图利用高权重的网站来提升自己的网站就是一种典型的黑帽SEO。为了防止搜索引擎有可能识别出该链接指向的是垃圾网站从而降低你的网站的权重,我们可以向链接中添加rel="nofollow"属性,例如<a href="http://www.blackhat.com" rel="nofollow">,告诉搜索引擎这个链接没有经过站点审核,所以这个链接不是一个信任票。搜索引擎看到这个标签就可能减少或完全取消链接的投票权重。但是这样并不能防止垃圾信息,只是能减轻垃圾网站对你的网站的攻击效果,链接仍然是可用的,但是并不是垃圾网站所希望的,因为这些链接没有投票价值。

这个标签通常是用在博客的评论或论坛帖子中,因为这些地方是最多垃圾链接出现的地方。现在主流的博客和论坛软件都自动在评论和帖子的链接中加上了这个标签。

通过认证码避免自动发帖攻击。

网站优化的最高境界还是白帽SEO和UEO(User experience optimization,用户体验优化)。

伪装、地域定向和IP分发

伪装(Cloaking)被定义为为搜索引擎蜘蛛和人类访问者提供不同的内容。在搜索引擎优化领域,它是一项充满争议的技术。但是根据IP不同返回不同内容,有的时候又不是作弊。所以这两者之间的界限,经常比较模糊。地域定向(geo-targeting)是一项类似的技术,但是它基于地理区域,为不同区域提供不同内容。例如,Google使用地域定向将www.google.com的用户重定向到特定国家/地区的域名。它的使用基本上没有什么争论。这些技术通常都使用一种叫作IP 分发(IP delivery) 的技术实现。

IP分发使用连接计算机的IP网络地址,而无论它是机器人或人类,发送不同的内容。在这个过程中,它使用数据库。在伪装的情况下,数据库存储着将会访问站点的不同蜘蛛的IP 地址,编程人员可以利用这些信息来生成不同的表现或逻辑。在地域定向的情况下,数据库存储着不同范围的IP地址段,指示着这些不同的IP地址段分别位于世界上哪个地方。地域定向的脚本扫描这个列表,以得知当前访问者的IP在于哪个国家/地区,编程人员可以利用这些信息来生成不同的表现或逻辑。通常,IP分发的伪装在实现上还会查看请求的User-Agent报头。用户代理报头是浏览器和蜘蛛都会发送的,但是这并不一定权威,因为用户和蜘蛛都有可能对自己是谁不说实话。在前一种情况下,蜘蛛声称自己是用户,以检测运用了伪装的网站,免得它向蜘蛛提供优化过的信息而向用户提供另外一套。在后一种情况下,用户(通常是竞争对手)也可能在浏览器中发送用户代理,以检测是否这个站点采用了伪装。它通过伪造其用户代理,来查看是否有伪装的存在。这就是为什么伪装的很多实现都不使用它来作为检测因素。

Google的定义:
  • 按地理位置传送: 根据用户所在位置,提供有针对性的内容。网站管理员可以通过用户储存在Cookie里的参数确定用户地理位置,还可以根据登录信息或者IP地址确定用户所在的位置。比如,如果你的网站是关于棒球的,你就可以通过定位技术向纽约的用户突显洋基队的内容信息。关键是传递给Googlebot的信息要与来自相似地域,IP范围等等的普通用户一样 (如果将Googlebot和普通真实的用户区别对待,那就构成了内容伪装 )
  • 按用户IP传送:根据用户的IP地址,提供特定内容信息。一般情况下,用户的IP地址与地理位置是绑定的,所以IP可以被当成是一种特定的地理位置标识,类似的规则同样适用。Googlebot上将看到与来自相同IP地址的用户一致的内容。
  • 内容伪装:向用户提供与Googlebot不同的内容。这种行为是违反网站管理员指南的。如果Googlobot里面的文档与用户看到的文档内容不一致,你就麻烦了。诸如md5sum或者diff等程序都会监测出两个不同文档的相似性。
  • First click free: 首次点击免费:实施Google资讯首次点击免费政策,这样一来,就可以在不违反搜索质量原则的前提下,将奖励性或者订阅用户才能享受的服务内容,显示在Google的搜索索引当中。即使用户没有注册或者订阅,也可以通过Google搜索,找到网页,然后浏览文档全文。他们的第一次点击是免费的,但如果要浏览网站上其他网页的内容,则需要登录或者付费。如果你正在使用这一功能,请确保向通过来自Google搜索的用户展示的内容,与Googlebot看到的内容一致。

站点地图
传统站点地图
简单的HTML页面,将所指向的网页分组,用于帮助访问者导航。

搜索引擎站点地图:

站点地图可方便管理员通知搜索引擎他们网站上有哪些可供抓取的网页。最简单的站点地图形式,就是 XML 文件,在其中列出网站中的网址以及关于每个网址的其他元数据(上次更新的时间、更改的频率以及相对于网站上其他网址的重要程度为何等),以便搜索引擎可以更加智能地抓取网站。站点地图不影响Web站点的排名,但是可以让站点被检索得更快。

1.Google XML站点地图标准
http://www.google.com/webmasters/sitemaps/
创建Google账户
创建站点地图
将站点地图添加到你的账户
检验站点,让Google确认你能够修改该站点
Google站点地图接受最后修改日期、更新频率、页面相对重要性等信息。在站点地图更新后,你可以主动提交到Google。

2.Yahoo!纯文本站点地图标准
在Web根目录下存放一个urllist.txt文件,内容为换行符分隔的URL列表,例如:
http://www.example.com/
http://www.example.com/news/
http://www.example.com/product/
并将它注册到一个Yahoo!账户,在http://submit.search.yahoo.com/free/request添加站点

3.sitemaps.org标准
标准化的搜索引擎站点地图协议
借鉴了Google标准
受 Google、Yahoo! 和 Microsoft 在内的众多厂商的支持
http://www.sitemaps.org/zh_CN/protocol.php

相关工具
在线xml地图生成站点网址:
http://www.xml-sitemaps.com
使用很简单,输入你的网站地址,等待几分钟便可以下载为你站点生成的各种类型的地图。

浏览器插件
Web Developer Extension (Firefox)
View HTTP Headers (Firefox)
View HTTP Headers (IE)

相关网站和Blog
http://www.dunsh.org/
http://www.seotest.cn/
http://www.chinamyhosting.com/seoblog/
http://www.seo-diy.cn/

你可能感兴趣的:(《搜索引擎优化高级编程》读书笔记)