原本只是想写一个批量扫二级目录扫描工具,是为了帮助客户批量检查二级目录下的未知web应用,现在可以当做目录扫描工具使用。
- 扫描速度和准确度不高。
- 单个目标扫描,容易被封。
- 扫描结果重复率高 ....
- 使用多个目标url匹配单个路径进行扫描,目标url越多越接近慢扫描状态,降低被封机率;实际测试扫描的准确率也很高。
- 多线程批量扫描;http、https协议都会进行存活检测。
- 302、301等跳转结果处理,去重;扫描结果过滤,去重。
- 自定义html格式结果输出,方便查看和使用。
- dir.txt里面放了top 1千条常见二级目录和常见高危路径。
- 目录x目标进行匹配,多线程检测(理论上目标越多越不容易被封),记录状态码、数据包大小、记录应用ICO logo等信息。
- 跳转检测,区分跳转到同一个界面的路径并过滤;重复数据过滤。
- 直接将结果写入xls(未实现)、html。
- 自动爬取页面连接,收集二级目录(未实现,打算结合jsfinder)。
跟普通目录扫描工具一样。


