- 前言
- 1. 为什么收集端口信息/服务信息?
- 2. 为什么收集c段
- 3. 为什么收集子域名
- 4. 为什么收集敏感目录?
- 5. 为什么搜集旁站
- 补充: 源码泄露利用
- 1.1 SVN
- 1.2 .hg
- 1.3 .git
- 1.4 .DS_Store
- 1.5 WEB-INF/web.xml
- 1.6 CVS
- 1.7 Bazaar/bzr
- 补充:敏感备份文件
- 2.1 gedit备份文件
- 2.2 vim备份文件
- 2.3 常规文件
红蓝对抗的时候,我们一般会有靶标,还会有入口点。
信息收集的时候,我们一般会收集如下几种信息:
- 对于主机端来说:
- 端口信息
- 服务信息
- c段
- 对于web端来说:
- web目录信息
- 子域名
- 旁站
至于漏洞一类的,都是漏洞扫描器的事情,这里不谈。
1. 为什么收集端口信息/服务信息?方便我们找漏洞或者判断机器的操作系统,例如开了22端口大多数就是linux,开了3389大多数就是windows。
2. 为什么收集c段我的理解是,当我们的目标无法直接攻击成功的时候,我们就只能通过C段去进行曲线攻击,如果我们攻击成功进入内网,可能就会发现我们跟之前本应攻击的目标在一个内网,这时候进行内网渗透,通过别的方法拿下目标。
3. 为什么收集子域名子域名一般跟主要攻击目标是同一家公司的,因此理由同上。子域名所在的服务器可能跟目标服务器在同一内网。先进入内网,其他的从长计议。
4. 为什么收集敏感目录?web攻击的时候目录很重要,比如涉及到了源码泄露等严重的危害。同时也可以帮助我们快速了解网站的部分路径。
5. 为什么搜集旁站因为旁站跟目标站在同一ip,如果我们渗透进去了旁站就等于渗透进去了目标站点。在我们攻击目标站不成功的时候可以尝试这个方法。
补充: 源码泄露利用 1.1 SVNrip-svn.pl -v -u http://www.example.com/.svn/
工具:dvcs-ripperd
1.2 .hg成因:hg init的时候会生成.hg
rip-hg.pl -v -u http://www.example.com/.hg/
工具:dvcs-ripper
1.3 .git成因:git init的时候会生成.git
rip-git.pl -v -u http://www.example.com/.git/
工具:dvcs-ripper
1.4 .DS_Store成因:在发布代码时未删除文件夹中隐藏的.DS_store
python ds_store_exp.py http://www.example.com/.DS_Store
工具:dsstoreexp
1.5 WEB-INF/web.xmlWEB-INF是Java的WEB应用的安全目录。如果想在页面中直接访问其中的文件,必须通过web.xml文件对要访问的文件进行相应映射才能访问。
- /WEB-INF/web.xml:Web应用程序配置文件,描述了 servlet 和其他的应用组件配置及命名规则。
- /WEB-INF/classes/:含了站点所有用的 class 文件,包括 servlet class 和非servlet class,他们不能包含在 .jar文件中
- /WEB-INF/lib/:存放web应用需要的各种JAR文件,放置仅在这个应用中要求使用的jar文件,如数据库驱动jar文件
- /WEB-INF/src/:源码目录,按照包名结构放置各个java文件。
- /WEB-INF/database.properties:数据库配置文件
rip-cvs.pl -v -u http://www.example.com/CVS/
工具:dvcs-ripper
1.7 Bazaar/bzrrip-bzr.pl -v -u http://www.example.com/.bzr/
rip-bzr.pl -s -v -u http://www.example.com/.bzr/
工具:dvcs-ripper
补充:敏感备份文件 2.1 gedit备份文件Linux下使用gedit编辑器保存后会生成一个后缀为~的文件其中文件内容为刚保存的文件内容
2.2 vim备份文件如果在编辑内容时候意外退出,会在当前目录下生成一个备份文件其中格式为:”.文件名.swp“对于这类文件,我们可以使用"vim -r"来恢复文件
vim在第一次意外退出的备份文件为*.swp,第二次为 .swo第三次为.swn,其余还有*.un的文件
2.3 常规文件Robots.txt文件
Readme.md文件
www.zip/rar/tar.gz



