SEO优化实战

http://imweb.io/topic/5682938b57d7a6c47914fc00

大概总结一下几个点:

TDK优化(title,description,keyword)

title

每个网页应该有一个独一无二的标题,切忌所有的页面都使用同样的默认标题

description

description不是权值计算的参考因素,这个标签存在与否不影响网页权值,只是会显示在搜索结果中,展现给用户。

  • 网站首页、频道页、产品参数页等没有大段文字可以用做摘要的网页最适合使用description
  • 准确的描述网页,不要堆砌关键词
  • 为每个网页创建不同的description,避免所有网页都使用同样的描述

keyword

keywords因为以前被seo人员过度使用,所以现在对这个进行优化对搜索引擎是没用的

页面内容

使用h5结构

用html5语义化标签。如header,footer,section,aside,nav,article等

img设置alt属性

nofollow

对不需要跟踪爬行的链接,设置nofollow。

<a href="http://example.com" rel="nofollow">no follow 链接a>

可用在博客评论、论坛帖子、社会化网站、留言板等地方,也可用于广告链接,还可用于隐私政策,用户条款,登录等。

URL规范化

统一连接

如果有多个链接都指向同一页面的话,最好从这些选择当中挑一个最好的代表,否则容易被误认为作弊手段

canonical

这个标签表示页面的唯一性,用在参数传递的时候。

//:ke.qq.com/download/app.html
//:ke.qq.com/download/app.html?from=123
//:ke.qq.com/download/app.html?from=456

以上三个表示三个页面,但其实后两个只是想表明从哪来的而已,所以为了确保这三个为同一个页面,我们在head上加上canonical标签。

<link rel="cononical" href="//:ke.qq.com/download/download/app.html" />

robots.txt

搜索引擎蜘蛛访问网站时会第一个访问robots.txt文件,robots.txt用于指导搜索引擎蜘蛛禁止抓取网站某些内容或只允许抓取那些内容,放在站点根目录。

SEO优化实战_第1张图片

下面表示禁止所有搜索引擎蜘蛛抓取任何内容

User-agent: *
Disallow: /

下面表示允许所有搜索引擎蜘蛛抓取任何内容

User-agent: *
Disallow:

注意:被robots禁止抓取的URL还是可能被索引并出现在搜索结果中的。只要有导入链接指向这个URL,搜索引擎就知道这个URL的存在,虽然不会抓取页面内容,但是索引库还是有这个URL的信息。

meta robots

如果要想URL完全不出现在搜索结果中,则需设置meta robots

<meta name="robots" content="onindex,nofollow">

上面代码表示:禁止所有搜索引擎索引本页,禁止跟踪本页上的链接。

你可能感兴趣的:(面试)