百度收录袋鼠博客文章页面失常,找到症结所在

由于最近在文章内页查看源代码时会有乱码,经过几次排查我确定了是wp-super-cache的问题,在上一篇文章
博客停用了WP-SUPER-CACHE插件    中提到过我碰到的问题。但今天仔细研究了下,发现问题不在这个插件上。

    之前(忘了多久了)做过对文章内页的Description优化,其中header.php部分有一段代码是这样的。

1
$description = substr(strip_tags($post->post_content),0,220);

代码的意思是文章内页的Meta Description属性取值为文章内容的前220个字符。
而用substr取值涉及到编码问题,对于一些中文页面会产生乱码,所以就会让百度蜘蛛识别错误,导致收录信息不正常。

解决方法是:将代码替换为mb_strimwidth函数,如下:

1
2
3
4
$description = mb_strimwidth(
strip_tags(apply_filters(
‘the_content’,$post->post_content)
),6,220);

这样,就完美解决了编码问题,中英文页面都不会出现源代码乱码问题了。

现在,等待着百度收录信息的恢复。

突然发现:同样是Google蜘蛛与百度蜘蛛,Google蜘蛛爬行我页面的时候就不会因为这点乱码问题而出现收录不正常,总结性地说一句:如果说其他搜索引擎的蜘蛛是普通蜘蛛的话,那么Google蜘蛛就是文艺蜘蛛,百度蜘蛛就是二逼蜘蛛。

你可能感兴趣的:(百度,google,搜索引擎,tags,优化)