减少与目标交互,把我所有可用可下载的页面全拷贝到本机,防止引起报警机制。
记得用proxy,防止被封掉咯
手动:以用户的方式去浏览一下。
自动:辅助手动。使用不当可能会造成目标系统报警哦。
发现Phpadmin→mysql
主动扫描工具,第一个会用一下的。会扫web服务器软件版本(版本低,就可以利用一些已经发布的漏洞啦);给出服务器配置漏洞(默认配置有很多安全隐患啊,要进行安全配置才可以哦);存在安全隐患的文件(发现之后,就可以把备份包之类的东西下载下来,就可以拿到源代码之类的啦);Web application层面的安全隐患。(其实扫描器最主要的作用就是把所有页面都找到,也都是完全根据服务器响应码判断的,但是因为很多厂商不严格遵循RFC,就可能出现各种各样的问题,就会产生404误报。所以后来的扫描器就会进行关键字检查比如not found,但是因为关键字不全,返回东西的不同之类的问题,现在又变成了 在扫描之前把文件名+扩展名在本地匹配,当真正这个文件不存在服务器会给返回什么,然后再开始扫描。)
-no404
常用命令:
Nikto -update不成功只能怪我们神奇的国度了,可以去网址直接下载。
Nikto -list -plugins
Nikto -host 目标地址
Nikto -host 目标地址 -port 443 -ssl(https方式的扫描)
【证书信息:加密方式,颁发者信息;给一些提示,比如cookie,某些信息;发现君子协议,robots.txt,应该手动去查看一下】
Nikto -host 目标地址 -port 80,443
Nikto -host host.txt
Host.txt应该是一行一行的IP地址后面可以跟上端口。
可以和nmap结合使用eg【nmap -p80 目标ip们 -oG - | nikto -host -】
Nikto -host 目标地址 -useproxy http://localhost:8087 【使用代理】
-vhost 域名 访问地址【用ip进行区分,用端口进行区分,主机头(www.aaa.com)】
扫描过程中与nikto交互
v详细信息
d更详细的信息,程序信息
e错误的信息
P扫描进度
r重定向
Ccookie
a身份认证的过程
q退出来
N 下一个主机吧
P 暂停一下;离开一小下,一会再见。
Nikto只能基于http的身份认证,而不是web application,不支持表单方式,但是有一种可以I替代表单的。可以支持拿到cookie之后的。可以用配置文件去设置cookie(vi /etc/nikto.conf)
配置文件内:
使用useragent 客户端代理(伪装自己浏览器啊)
Rfiurl:远程文件包含,可以自己更改掉,不过据说一般使用原来的就可以啦。
STATIC-COOKIE=加上cookie 去掉#就是去掉注释。
逃避技术
-evasion 对入侵检测系统进行躲避 八种技术随便用啊别客气,加在语句后面就可以直接用了。
Java编写的一个开源的web扫描器。
1.扫描模式
2.代理模式(中间代理)
手动爬的时候一般都是正常的东西哇,只有手动爬的差不多了然后用自动的做Fuzz,查看一些隐藏的内容+手动的爬,总体内容的就比较完整了。然后手动去弄一下啦。
不过Vega主要针对的不是web server软件的版本信息啦、缺了什么补丁啦,会有什么漏洞啦之类的。也不大关注app server层面的漏洞,而是专注在web 代码上的程序漏洞,比如常见的sql注入啦、跨站啦、目录遍历啦之类的。
可以爬站、处理表单、注入测试(哇好强大啊)
Vega的配置很简洁很简单:
首先是代理:SOCKS or HTTP
SOCKS:全能代理,就像有很多跳线的转接板,它只是简单地将一端的系统连接到另外一端。支持多种协议,包括http、ftp请求及其它类型的请求。它分socks 4 和socks 5两种类型,socks 4只支持TCP协议而socks 5支持TCP/UDP协议,还支持各种身份验证机制等协议。其标准端口为1080。
HTTP代理:代理客户机的http访问,主要代理浏览器访问网页,它的端口一般为80、8080、3128等。
Proxy
第一个开关打开之后:Netstat -pantu | grep 8888可以看到
打开代理看一看手动爬一下,然后看看爬的结果(黑体是爬到的,灰色是里面有的别的链接)
之后就可以先看看被动的扫描结果,然后再开始主动的扫描结果。
当然扫描之前首先要定义一下范围与身份认证信息。
范围就是那个三个小方块按钮,或者直接右键添加都ok。
创建新的身份信息就是下面那个小人头了,前面三个是关于web server的身份认证(1.http基本身份认证 2.摘要式 3.windows系统的);marco是关于web application表单式的身份认证。
Tips:
首先区分:公钥颁发机构颁发的证书与自签名证书使用过程的区别
Vega使用HTTPS代理的时候就会粗线提示自签名证书不安全,为了提升我们的体验。我们可以信任一下vega的证书。(在使用vega代理的时候去信任一下HTTP://vega/ca.crt)
是C语言编写滴,是实验性的主动web评估工具,也关注web代码这块的漏洞,也会递归爬网,有一个小优点就是速度比较快(多路单线程,全异步网络I/O,启发式自动内容识别),误报率相对来说比较低,但是误报也不少。
命令:
Skipfish -o test 目标url
Skipfish -o test -I 必含关键字 目标url(-X是不包含)
Skipfish -o test @url.txt
指定字典:
Skipfish -o test -S complet.wl -W a.wl 指定url 使用complet 写入a等等
-k不对指定参数进行Fuzz测试
-D跨站点爬另一个域
-l 每秒最大请求数
-m 每个ip最大并发连接数
--config
Eg(哇写的好长好厉害的样子,但是就是身份认证而已。).skipfish - o test --auth-form http://192.168.3.19/dvwa/login.php --auth--form-target http://192.168.3.19/dvwa/login.php --auth-user-field username --auth-user admin --auth-pass-field password --auth-pass password --auth-verify-url http://192.168.3.19 /dvwa/index.php -I /dvwa/ http://192.168.3.19/dvwa
身份认证:
Skipfish -A user:pass -o test url
Skipfish -C “name=val” -o test url
Tips:如果扫描结束太快很可能是因为触发了对方报警机制,可以使用-l -m限制一下速度的说。
Web application attack and audit framework
2017.2版kali安装参考(完美解决一切问题)
http://blog.csdn.net/weixin_37224075/article/details/78215791?locationNum=10&fps=1
基于python的框架,发现和利用所有web应用程序漏洞
可以配置的9大类近150个plugin。
Audit:扫描发现漏洞;
Infrastructure:什么操作系统,什么server,什么开发语言,基础架构信息;
Grep:被动扫描插件类型,不主动发送数据包,发现已有数据包里的敏感信息,比如password之类的,在请求返回的流量里发现是否已经植入webshell;
Evasion:经过一些编码变形,在通过WAF、IDS时候逃过去;
Mangle:做代码修改,把特定字符串一经过w3af,就进行替换。
Auth:身份认证;
Bruteforce:暴力破解;
Output:扫描的结果可以output成一个文件,有其他类型的插件进行调用;
Crawl:爬网,webspider
Attack:唯一一个不可以人工修改的。
./w3af_console(./w3af_gui)
指令:
- help一下都OK
参数设置的地方:
Http-settings:
view:url范围、超时定义、headers-files、cookie信息、ntlm身份认证信息、user-agent、每秒最大请求、404匹配的情况等等;
阿西吧指令太多了,界面模式也不错^_^
对请求内容编/解码
设置身份信息
Cookie信息的文件,w3af控制的超级苛刻,信息文本内只能用tab,而不能用空格代替。
Header file信息。
截断代理:可用正则表达式去自定义($emmmmmm.help就在旁边$)