从书本和网上了解到Web应用安全的信息泄露的知识,今天跟大家分享点。
漏洞描述:搜索引擎可以通过robots文件可以获知哪些页面可以爬取,哪些页面不可以爬取。Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯,如果robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,比如网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。
测试方法:
1、检测形式多样,工具爬虫扫描得到敏感文件的路径,从而找到robots文件;
2、手工挖掘,直接在域名后输入/robots.txt进行查看。
风险分析:攻击者可通过发现robots.txt文件,收集网站的敏感目录或文件,从而有针对性的进行利用。
修复方案:可根据实际情况,进行如下对应的修复:
1、 User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
2、 Disallow: / 这里定义是禁止爬寻站点所有的内容
3、 Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
4、 Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
5、 Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
6、 Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
7、 Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
8、 Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
9、 Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
10、Allow: /tmp 这里定义是允许爬寻tmp的整个目录
11、Allow: .htm$ 仅允许访问以".htm"为后缀的URL。
12、Allow: .gif$ 允许抓取网页和gif格式图片
13、Sitemap: 网站地图 告诉爬虫这个页面是网站地图。
漏洞描述:敏感数据包括但不限于:口令、密钥、证书、会话标识、License、隐私数据(如短消息的内容)、授权凭据、个人数据(如姓名、住址、电话等)等,在程序文件、配置文件、日志文件、备份文件及数据库中都有可能包含敏感数据。
测试方法:
风险分析:攻击者可通过上述方式获取网站敏感文件,收集网站敏感信息,从而有针对性的进行利用。
修复方案:
漏洞描述:漏洞描述:明文密码保存在本地客户端
测试方法:
风险分析:攻击者可通过嗅探或直接查看源代码的方式获取传输到前端的账号及密码,登录他人账号。
修复方案:禁止将密码保存到本地客户端,即便是加密后的密码也不建议保存在本地,攻击者可利用密文格式的密码登录或修改其他账户的密码。
漏洞描述:在渗透过程中发现应用中存在曾经的入侵痕迹,如存在的webshell文件。
测试方法:通常使用Web应用安全漏洞扫描工具或目录扫描工具发现入侵痕迹。
风险分析:残留的入侵痕迹可被其他攻击者用于二次攻击,对网站造成一定的影响。
修复方案:可借助工具全盘清理入侵痕迹,如D盾可以扫描Windows系统中的webshell。
漏洞描述:攻击者在参数中输入超长字符串,导致数据溢出,致使应用或者数据库报错引发相关信息泄露,或者引起拒绝服务攻击等问题。
测试方法:在前端可控参数中输入超长字符串
风险分析:攻击者可通过输入参数溢出触发应用服务器异常或服务器拒绝服务,影响系统可用性。
修复方案:限制输入参数内容的长度。
漏洞描述:应用遗留的过时文件、备份页面、渗透测试遗留文件、开发文件残留的测试文件等。
测试方法:
风险分析:攻击者可通过上述方式获取网站备份文件、过时文件、遗留文件等内容,收集网站敏感信息,从而有针对性的进行利用。
修复方案: