phpcms被挂马,用robots.txt防止被百度抓取

2015版本的phpcms有getshell漏洞,导致批量网站被挂马;而百度呢,好的不抓,违法信息抓取的还久久不去,提交死链也还得好几天。

为防止百度抓取到被挂马的页面,这里就可以用到robots.txt来限制

#
# robots.txt for PHPCMS v9
#
User-agent: * 

#允许首页根目录/和不带斜杠、index.php、index.html
Allow: /$
Allow: $
Allow: /index.php #文件属性设置为禁止修改
Allow: /index.html

#允许静态生成目录
Allow: /*.html$
Disallow: /*?*.html$
Disallow: /*=*.html$


#允许单一入口
Allow: /index.php?*

#允许资源文件
Allow: /*.jpg$
Allow: /*.png$
Allow: /*.gif$

#禁止其他所有
Disallow: /


robots.txt,index.php,templates等文件限制写入权限;(当然被入侵到服务里面,拥有root权限就另当别论了),平时网监的时候,可查看robots文件是否被修改,一旦被修改,肯定服务器被攻击,只要这些个文件不被修改,入侵也主要就是上传文件,或者攻击到数据库;

这个robots文件,就是主要针对上传类的挂马,比如增加xxx.php?=dddd.html;xxxx.php;上传也不会被百度抓取,降低网监风险

转载于:https://my.oschina.net/madeitcwang/blog/917772

你可能感兴趣的:(php)