Radium¥¥¥Rad基础操作

前言

最近在学习渗透测试知识,自从开始使用Rad便非常的惊喜,但在使用过程中产生了很多小疑问和小障碍,经过一段时间的学习使用,形成了一些拙见,与大家共享,希望大家能站在我的肩膀上,继续前进。

一、Rad是什么?

rad,全名 Radium,名字来源于放射性元素——镭, 从一个URL开始,辐射到一整个站点空间。他是从企业版Xray中提取出的一款专为安全扫描而生的浏览器爬虫。由Golang写成,具有如下特点:

通过调用Chrome,可以智能爬取各种 Web2.0 网站,模拟人的行为进行点击、输入等,自动事件触发和表单填充,助力漏洞扫描更快一步

支持Windows,Linux,MacOS(包括M1芯片版)

支持手动登录网站后继续爬取

支持在爬取过程中对相似度高的页面进行去重,过滤静态文件、重复请求减少资源消耗

支持自由配置代理,UA等设置

支持为指定域名配置headers

支持多种输出,可选择输出域名,完整请求,JSON

支持自定义请求关键字/正则过滤,防止危险请求触发、意外登出

支持自定义并发控制,合理调配资源占用

支持自定义行为控制,限制单个页面中点击深度,点击次数、点击时间间隔、超时时间

二、安装Rad

下载地址

https://github.com/chaitin/rad/releases

自行下载对应版本的Rad即可

准备

安装最新版本的Chrome

Rad是没有图形化界面的,所以需要通过Powershell,cmd,shell等通过命令行调用。配置文件需要随意制定一个扫描目标后生成。

执行如下命令获取配置文件:

rad.exe -t http://example.com 各自系统命令有所不同

执行完成后应如下图

三、基础使用

首先使用rad.exe -h查看Rad本身自带的帮助信息

1.--target|-t|--url|-u

该参数都可以指定扫描目标,作用一样

2.--config|-c

该参数可指定使用哪个配置文件,当未使用该参数时默认rad_config.yml

3.--text-output|--text

指定输出模式为txt,且将导出基本结果,也就是只有请求类型与请求地址。

输入结果如图:

4.--full-text-output|--full

指定输出模式为txt,且将导出完整请求,也就是包括了请求头与请求体。

输入结果如下图:

5.--json-output|--json

指定输出模式为json,且将导出完整请求,也就是包括了请求头与请求体。

输出结果如下图:

6.--auto-index|--index

该参数需配合结果输出参数一起使用,他会检测到如果当前生成的结果文件已存在,便自动在结果文件的名称后面添加编号,不需要自己再修改生成文件的名称。

效果如图:

7.--http-proxy

设置代理服务器,需要注意,此处的原理为:Rad为调用起的Chrome设置了代理,而不是Rad本身使用代理。

8.--disable-headless

无头模式,又称为无界面启动,是指在调用Chrome做爬虫时不打开浏览器,而是使用浏览器的内核进行爬虫

Rad在默认状态下是启用无头模式的,使用此参数可禁用无头模式,使其开启浏览器运行,观测爬取过程

无头模式的默认状态也可以在配置文件中修改

9.--log-level

指定输出等级,默认输出info,当级别高于info后,info将不被输出。

级别分为:debug, info, warn, error, fatal

效果如下图:

10.--no-banner

去掉banner信息

效果如图:

11.--wait-login

使用该参数会自动禁用无头浏览模式,开启一个浏览器供手动登录。在登录完毕后在命令行界面点击回车键继续爬取。注意需要登陆时请在配置文件中开启图片显示功能,否则会出现验证码不显示的现象

以下为登陆全流程

首先会开启一个空白界面,需要手动在地址栏输入要登陆的地址

响应完成后输入账号密码进行登录

登陆完成后进入主界面

这个时候回到shell界面点击回车即可继续爬取

四、Rad联动Xray等其他工具

Rad与其他工具联动的原理基本一致,这里只选择三个工具作为演示

Xray

社区版:设置上级代理为Xray监听地址 首选运行xray:

    — xray webscan --listen 127.0.0.1:7777 --html-output proxy.html

    — 运行rad:rad -t http://example.com -http-proxy 127.0.0.1:7777

高级版:对 Rad 进行了深度融合,下载后可以一键使用:

    — xray webscan --browser-crawler http://example.com --html-output vuln.html

    — 注意将Xray与Rad放于同一目录下

Burp Suite

使用burp作为上级代理,只需要将bp打开,然后将Rad的http-proxy设置为burp的代理端口即可

burp的抓包打开后,就可以直接使rad暂停住,可以修改包的内容再发送。

也可以将intercept置为off,在HTTP history中查看发送与返回的数据包

如果需要再挂一层代理改变出网ip,只需要在Burp的User options中的Upstream Proxy Servers设置上层代理即可

W13scan

原理与xray一样,使用W13scan的被动扫描作为上级代理完成联动

python3 w13scan.py -s 127.0.0.1:7778 --html  # 端口可省略,默认为7778,开启--html即实时生成html报告

rad -t http://example.com -http-proxy 127.0.0.1:7778

五、多目标扫描

由于Rad目前不支持多目标扫描,所以可以选择使用命令行的多命令执行完成多目标扫描的目的。

1.多条命令之间推荐使用;来执行,第一时因为linux的命令行与powershell都支持该符号分割,第二也是可以在上一条命令执行失败的情况下继续执行下一条命令,从而达到出现了问题也不影响后续的效果。

效果如下图:

2.目标少的时候还可以使用这种方式,但如果目标多了,使用脚本来生成命令会更为合适

如果需要Xray+Rad的批量主动扫描,可以使用timwhitez师傅写的脚本来实现。获取地址:Xray-Rad

如果只是生成一段命令,可以参考以下脚本,使用方式:python 1.py -r a.txt -o b.txt

import argparse

import time

parser = argparse.ArgumentParser()

txtName = str(int(time.time())) + ".txt"

parser.add_argument('-r',help='Enter the file you want to generate')

parser.add_argument('-o', type=str, default=txtName, help='Please enter the name of the file you want to output. Default is '+txtName)

args = parser.parse_args()

f = open(args.r,'r')

data = f.readlines()

a = ""

for i in data:

a += "; .\\rad.exe -t {} --json abs.json --index".format(i.strip())

f.close()

f = open(args.o,"w")

f.write(a)

f.close()

这是目标文件:

这是生成结果:

具体想要生成出什么样的命令都可以再修改

配置文件解析

此处只对配置文件中描述的比较模糊的地方做一下详细说明,故不粘贴配置文件的全部内容

exec_path: ""

      — 启动chrome的路径,正常安装了Chrome的就一般不需要填写

disable_headless: true

      — 无头模式,也就是无界面启动。默认为无界面启动状态,修改为false后运行程序即可看到浏览器

force_sandbox: false

      — 强制开启sandbox;为 false 时默认开启沙箱,但在容器中会关闭沙箱。为true时强制启用沙箱,可能导致在docker中无法使用。

      — 沙盒利用操作系统提供的安全性,允许不能对计算机做出持久性改变或者访问持续变化的信息的代码的执行。沙箱提供的架构和具体保证依赖于操作系统。

proxy: ""

        — 代理配置,如果不想在命令行中每次都添加,可直接在此处添加

domain_headers:                  # 请求头配置:[]{domain,map[headerKey]HeaderValue}

- domain: '*'                    # 为哪些域名设置header,glob语法

  headers: {}                    # 请求头,map[key]value

      — 该参数可以实现高度的自定义,并且可以设置多个domain,为每个不同的domain设置不同的headers

— 拿http://space.bilibili.com来举例,当没有登陆的时候,访问该url会跳转至登陆界面。而当登陆后,该url会跳转至登陆用户的空间。所以如果想要爬取相关内容,又不想使用wait-login,就可以先登录,抓取cookie,然后此处设置cookie,会直接跳转到登录用户的空间

      — 还类似与这个漏洞,CVE-2021-29441,将UA设定成指定的内容,即可未授权访问admin的内容

      — 还有像一些webVPN,通过特定的cookie允许访问内网的内容,正常在没有cookie时无法访问。这个时候就可以对该域名添加指定cookie,从而实现让rad爬取内网资产的目的。

element_filter_strength: 0

      — 过滤同站点相似元素强度,1-7取值,强度逐步增大,为0时不进行跨页面元素过滤

      — 在爬取过程中对相似度高的页面进行去重,过滤静态文件、重复请求减少资源消耗,可有效减少无用请求的输出。

new_task_filter_config|request_send_filter_config|request_output_filter_config

      — 检查某个链接是否应该被加入爬取队列、某个请求是否应该被发送、输出

      — path_disallowed: [] # 不允许访问的路径, 支持的格式如: test、*test*

拿这个参数举例子:

      — 未修改时所爬取到的链接:

添加不想被爬的路径:

修改后的爬取结果:

输出文件的使用

Rad有三种输出模式,简易输出,全输出和Json输出,此处大概提一下一些简单的使用,也欢迎师傅们有更多更好的想法。

1.当使用--text 1.txt也就是简易输出的时候,可以选择将输出的文件中的GET与POST去掉,然后直接将该文件交给sqlmap来跑

当生成的txt比较大,或者是批量目标生成的txt合起来,就可以使用这样的命令进行批量检测python sqlmap.py -m 1.txt --smart --batch --random-agent --level 5

2.上述的使用容易出现POST请求不会被检测到的情况,所以可以使用Json格式进行输出,然后通过脚本实现对GET请求与POST请求的分离,使用多命令执行来实现精准匹配。

import argparse

import time

import json

import base64

parser = argparse.ArgumentParser()

txtName = str(int(time.time())) + ".txt"

parser.add_argument('-r',help='Enter the file you want to generate')

parser.add_argument('-o', type=str, default=txtName, help='Please enter the name of the file you want to output. Default is '+txtName)

args = parser.parse_args()

f = open(args.r,'r')

load_dict = json.load(f)

f.close()

a = ""

for i in range(len(load_dict)):

if load_dict[i]["Method"] == "GET":

a += "; python sqlmap.py -u \"{}\" --smart --batch --random-agent --level 5".format(load_dict[i]["URL"])

else:

if "b64_body" in load_dict[i]:

a += "; python sqlmap.py -u \"{}\" --data \"{}\" --smart --batch --random-agent --level 5".format(load_dict[i]["URL"],base64.b64decode(load_dict[i]["b64_body"]).decode("utf-8"))

else:

continue

f = open(args.o,"w")

f.write(a)

f.close()

该脚本只是实例,可根据自己需求自行修改。

效果如下,为方便展示,将分号替换为回车:

你学会了吗?

没有吧!

再去看一遍!

快点!!!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342