优化 WordPress 网站让百度快速收录

优化 WordPress 网站让百度快速收录_第1张图片

百度站长四种提交方式:

  • 主动推送:最为快速的提交方式,建议将站点当天新产出链接立即通过此方式推送给百度,以保证新链接可以及时被百度收录。
  • sitemap:可以定期将网站链接放到 Sitemap 中,然后将 Sitemap 提交给百度。百度会周期性的抓取检查提交的 Sitemap,对其中的链接进行处理,但收录速度慢于主动推送。
  • 手工提交:如果不想通过程序提交,那么可以采用此种方式,手动将链接提交给百度。
  • 自动推送:通过一个轻量级链接提交组件实现,将自动推送的 JS 代码放置在站点每一个页面源代码中,当页面被访问时,页面链接会自动推送给百度,有利于新页面更快被百度发现。

百度站站管理工具连接:http://zhanzhang.baidu.com/dashboard/index

sitemap 方式提交

先通过插件生成站点的 Sitemap,Google XML Sitemap 和 Simple Google Sitemap 这些插件都会生成适配百度站长的 Sitemap 文件。

链接提交地址:http://zhanzhang.baidu.com/linksubmit/url

以上三种把文章的新链接推送到百度,实现网站新页面快速收录的方法介绍就完成了,第二天就可以在后台看到每天推送给百度的链接数量。

JS 实现主动推送

  1. 找到当前的主题 footer.php 底部文件
wordpress/wp-content/themes/Kratos/footer.php
  1. 在当中添加如下 javascript 代码。


使用 WordPress 主动推送

  1. 找到我们当前的主题
wordpress/wp-content/themes/Kratos/functions.php
  1. 在functions.php文件加入下面内容:
//WordPress百度主动推送功能
function Baidu_Submit($post_ID){
$urls = get_permalink($post_ID);
$api = 'http://data.zz.baidu.com/urls?site=https://www.heguangzhi.com&token=qkERxMnd0CWuW9tG';
$ch = curl_init();
$options =  array(
    CURLOPT_URL => $api,
    CURLOPT_POST => true,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_POSTFIELDS => implode("\n", $urls),
    CURLOPT_HTTPHEADER => array('Content-Type: text/plain'),
);
curl_setopt_array($ch, $options);
$result = curl_exec($ch);
echo $result;
}

add_action('publish_post', 'Baidu_Submit',0);

WordPress 添加百度 Ping 服务

什么是百度 Ping 服务?

百度 ping 是基于 XML_RPC 标准协议的更新通告服务,用于将站点的内容更新快速通知给百度,以便百度及时进行抓取和更新。简单点说,只要在 WordPress 中添加了百度 Ping 服务,那么在撰写一篇新的文章并点击发布按钮时,WordPress 将自动将该文章链接通知给百度Ping,以便于百度Ping能够更快更及时地抓取更新内容。

百度的 Ping 服务目前有手动和自动两种使用方式。

添加百度 Ping 服务

为 WordPress 添加百度 Pin g服务的方法非常简单,需要进入 WordPress 后台,点击【设置】-【撰写】菜单,然后在页面最下方的【更新服务】文本框中添加百度自动 Ping 服务的地址:http://ping.baidu.com/ping/RPC2,然后点击【保存更改】。

WordPress 已经内置了一个自动 Ping 更新服务,默认的 Ping 服务网址为 http://rpc.pingomatic.com/,如想要保留该Ping服务,请先换行再输入百度自动 Ping 的网址(WordPress要求一行为一个Ping通告服务)。

添加其他 Ping 服务

http://blogsearch.google.com/ping/RPC2

http://blog.youdao.com/ping/RPC2

使用 robots.txt 屏蔽网页

百度会尽量收录提供不同信息的网页,使用 robots.txt 禁止爬虫重复页面的抓取,避免重复内容过多受到惩罚
针对 WordPress 的 robots.txt如下:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/

更多内容 请看 www.heguangzhi.com

你可能感兴趣的:(WordPress)