爬虫相关

前一个系列的文章是关于勘察的,下面这个系列是关于爬虫的,主要内容如下:

  • 使用 Wget 下载一个页面用于离线分析
  • 使用 HTTrack 下载一个页面用于离线分析
  • 使用 ZAP 的 Spider
  • 使用 Burp Suite 爬取一个网站
  • 使用 Burp 的 repeater 重发请求
  • 使用 WebScarab
  • 识别爬取结果中的相关文件和目录

简介

渗透测试的实施途径有很多,比如黑盒、灰盒、白盒测试。黑盒测试,事先不知道待测系统的信息,只知道服务的URL地址。 白盒测试,测试团队事先了解被测系统的全部信息,基础设施架构、软件版本、测试用账户信息、开发信息等 。灰盒测试,可以理解为介于黑盒和白盒之间的混合测试。

不管黑盒还是灰盒测试,勘察阶段都是发现白盒测试中所用信息(应用所有者提供的),的必要手段。下面,我们继续以黑盒测试的途径(该途径覆盖了外部攻击者获取用于渗透到应用或服务的特定功能所需信息所有步骤)继续讨论。

跟所有Web系统渗透测试的勘察阶段一样,我们要先去浏览并保存目标站点的所有页面和文件。类似于 Web Crawler和 Web Spider 的工具可以帮我们快速实现这一目标。这些工具跟进所有的链接或外部文件索引,有时候还能构造某些秒单并发给服务器,报存所有的请求和响应,以供我们进行相应的离线分析。

这个系类的文章里,我们会讨论如何利用 Kali 中提供的一些爬虫工具, 来获取网页内容。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 作者:Gilberto Najera-Gutierrez译者:飞龙协议:CC BY-NC-SA 4.0 简介 渗透...
    三月行者阅读 4,775评论 0 8
  • 学习爬虫有一段时间了,期间接触了很多相关的库,不禁感慨Python就是强大,当你遇到任何问题的时候基本上都有前人造...
    HomerX阅读 12,318评论 0 13
  • 在做防止网站被爬虫爬取数据的时候,其中最简单的方式就是判断请求是程序生产的,还是人为生成的。 当然,最简单的就是通...
    若与阅读 6,240评论 0 10
  • ~ 写在正文之前:文章转移到翻这个墙中,希望继续关注啦。(2017.11.5) 开源项目 https://gith...
    翻个墙阅读 2,415评论 1 2
  • 开源项目 https://github.com/TeamHG-Memex/arachnado Arachnado ...
    翻这个墙阅读 2,662评论 0 0

友情链接更多精彩内容