主机扫描、端口扫描
每个人都有自己喜欢的工具,具体选择要根据自身以及实际情况
网站敏感目录和文件
扫描网站目录结构,看看是否可以遍历目录,或者敏感文件泄漏
后台目录:弱口令,万能密码,爆破 安装包:获取数据库信息,甚至是网站源码 上传目录:截断、上传图片马等 mysql管理接口:弱口令、爆破,万能密码,然后脱裤,甚至是拿到shell 安装页面 :可以二次安装进而绕过 phpinfo:会把你配置的各种信息暴露出来 编辑器:fck、ke、等 iis短文件利用:条件比较苛刻 windows、apache等
提到了网站敏感目录我们就不得不提 robots.txt 文件了
robots.txt 文件是专门针对搜索引擎机器人robot 编写的一个纯文本文件。我们可以在这个文件中指定网站中不想被robot访问的目录。这样,我们网站的部分或全部内容就可以不被搜索引擎收录了,或者让搜索引擎只收录指定的内容。因此我们可
以利用robots.txt让Google的机器人访问不了我们网站上的重要文件,GoogleHack的威胁也就不存在了。
假如编写的robots.txt文件内容如下:
User-agent: * Disallow: /data/ Disallow: /db/ Disallow: /admin/ Disallow: /manager/ Allow:/images/
其中“Disallow”参数后面的是禁止robot收录部分的路径,例如我们要让robot禁止收录网站目录下的“data”文件夹,只需要在Disallow参数后面加上 /data/ 即可。如果想增加其他目录,只需按此格式继续添加。文件编写完成后将其上传到网站的根目录,就可以让网站远离Google Hack了。
虽然robots文件目的是让搜索蜘蛛不爬取想要保护的页面,但是如果我们知道了robots文件的内容的话,我们就可以知道目标网站哪些文件夹不让访问,从侧面说明这些文件夹是很重要的了。
旁站和C段扫描
旁站:同服务器不同站点 百度工具查询 C站 百度工具查询
前提条件:多个站点服务器
服务器:
192.168.1.100
www.a.com(目标)
www.b.com(打他也行)
独立站点服务器
C段:同网段的不同服务器不同站点
192.168.1.100
www.a.com(目标)
www.b.com(也搞不了)
192.168.1.101
www.c.com(可以搞他)
www.d.com(可以搞他)
旁站和C段在线查询地址:
网站漏洞扫描
AWVS
Goby
Xray
Nessus
SqlMap
…