网站url过滤不严格造成下载任意文件漏洞

年底了很忙,最近一直在处理安全问题,其中有一例比较有代表性,于是想拿出来说说。大概是这样的,网站在某个目录下提供pdf文档下载,但是出现了安全问题,通过对路径和文件名的修改,指定下载linux系统的passwd文件,同样方法下载shadow文件到本地。

210748322.jpg

然后使用hashcat去暴力破解shadow文件

./hashcat -client32.bin -m 1800 shadow dictionary.txt

210804641.jpg

因为字典足够强大,所以最终还是爆破出来了


建议:对下载url地址进行严格过滤,非pdf文件地址则返回404页面

你可能感兴趣的:(linux,网站,代表性)