简介
Reptile是一个具有高拓展性的可支持单机与集群部署Java多线程爬虫框架,该框架可简化爬虫的开发流程。该框架各个组件高内聚松耦合的特性让用户可以对不同组件进行定制来满足不同的需求。
特性
- 模块化设计,具有高度拓展性
- 支持单机多线程部署
- 支持简单集群部署
- 配置简单清晰
- 支持同步或异步运行
- 单机部署时,请求爬取完毕并且无其他线程产生新请求时会自动停止爬虫并关闭所有可关闭的资源
- 整合Jsoup,支持HTML页面解析
- 请求调度器支持URL或请求的去重处理,提供布隆过滤器与集合等去重实现,默认使用布隆过滤器,可在配置类进行指定
- 支持设置UserAgent池与Proxy池,并且可设置请求对UserAgent与Proxy的选择策略,如随机或循环顺序选择
- 当爬取请求出现IO异常时,支持请求重试,可在配置类指定请求重试次数
架构
Reptile
作为爬虫主体可在主线程运行也可以异步运行,爬虫主要有四个核心组件:
-
Scheduler
执行请求调度,支持添加与拉取新的爬取请求,并支持去重处理-
FIFOQueueScheduler
基于Java的ConcurrentLinkedQueue
实现的先进先出无限队列调度器、线程安全、不支持持久化,适合作为小型爬虫的请求调度器 -
RedisFIFOQueueScheduler
基于Redis的列表实现的先进先出无限队列调度器、线程安全、阻塞添加与拉取请求、支持持久化,适合作为大型爬虫的请求调度器
-
-
Downloader
执行请求下载与解析响应-
HttpClientDownloader
基于apache的httpclient
实现的下载器
-
-
ResponseHandler
由使用者提供实现来对响应处理,生成Result
结果与新的爬取请求Request
-
Consumer
来对处理的结果Result
进行消费,例如持久化存储,用户可自定义其具体实现-
ConsoleConsumer
控制台数据消费者,默认使用System.out.println
将数据输出到控制台 -
JsonFileConsumer
Json文件消费者,将Result
数据序列化为JSON字符串并按行输出到指定文件,这样读取数据时可直接按行反序列化JSON字符串 -
MongoDBConsumer
MongoDB数据消费者,将Result
数据存储到指定的MongoDB数据库中的表
-
四个组件之间的关系如架构图所示,它们之间的互相调用形成一个完整的工作流并在Workflow
线程中运行,Reptile
爬虫会根据配置的线程数量通过线程池创建指定数量的工作流线程并发执行工作流任务。
快速开始
使用Maven
- clone项目并构建发布到本地仓库
git clone git@github.com:xiepuhuan/reptile.git
cd reptile
mvn -Dmaven.test.skip=true
- 在项目中使用Maven引入对应的依赖
<dependency>
<groupId>com.xiepuhuan</groupId>
<artifactId>reptile</artifactId>
<version>0.3</version>
</dependency>
使用方式
- 实现
ResponseHandler
接口,重写isSupport
与handle
方法。-
isSupport
方法根据reponseContext
参数对象判断是否需要处理该响应,是则返回true
,否则返回false
。 -
handle
方法处理该响应,并将处理结果存储到result
,如果从响应中有提取到要爬取的新请求则将其作为返回值返回。 - 如果没有找到支持处理该响应的处理器则响应会被忽略。
-
- 实现
Consumer
接口,重写consume
方法,执行对数据的消费,可在该方法中对响应处理结果进行持久化等操作,目前提供了ConsoleConsumer
,JsonFileConsumer
,MongoDBConsumer
等实现,默认使用ConsoleConsumer
。
推荐
- 推荐使用
MongoDBConsumer
作为爬虫消费者, 因为其面向文档存储, 文档可嵌套文档、数组, 并且预先不需要建表, 这些特性非常适合爬虫爬取的不确定网络数据, JSON格式数据的存储。 - 若是使用MongoDBConsumer作为数据消费者, 那么必须在
ResponseHandler
中的handle
方法中调用result
的setExtendedField
方法并使用ResultExtendedField.MONGODB_DATABASE_COLLECTION_NAME
常量作为键设置数据存储的表名称。
示例
单机部署
public class ZhihuPageHandler implements ResponseHandler {
private static final String[] URLS = new String[] {
"https://www.zhihu.com/api/v4/search_v3?t=general&q=java"
};
@Override
public List<Request> handle(Response response, Result result) {
Content content = response.getContent();
JSONObject jsonObject = JSON.parseObject(content.getContent(), JSONObject.class);
result.setResults(jsonObject.getInnerMap());
JSONObject paging = jsonObject.getJSONObject("paging");
if (!paging.getBoolean("is_end")) {
List<Request> requests = new ArrayList<>();
requests.add(new Request(paging.getString("next")));
return requests;
}
return null;
}
@Override
public boolean isSupport(Request request, Response response) {
return true;
}
public static void main(String[] args) {
// 构建Reptile爬虫配置类,
ReptileConfig config = ReptileConfig.Builder.cutom()
.setThreadCount(8)
.appendResponseHandlers(new ZhihuPageHandler())
.setDeploymentMode(DeploymentModeEnum.SINGLE)
.setConsumer(new ConsoleConsumer())
.build();
// 根据reptile配置构建Reptile爬虫并添加爬去的URL
Reptile reptile = Reptile.create(config).addUrls(URLS);
// 启动爬虫
reptile.start();
}
}
分布式部署
分布式部署时,创建配置类时需要通过setDeploymentMode
方法指定部署模式为DeploymentModeEnum.Distributed
,并且需要通过setScheduler
方法设置一个Redis队列调度器,可以使用RedisFIFOQueueScheduler
作为实现。
public class ZhihuPageHandler implements ResponseHandler {
private static final String[] URLS = new String[] {
"https://www.zhihu.com/api/v4/search_v3?t=general&q=java"
};
@Override
public List<Request> handle(Response response, Result result) {
Content content = response.getContent();
JSONObject jsonObject = JSON.parseObject(content.getContent(), JSONObject.class);
result.setResults(jsonObject.getInnerMap());
JSONObject paging = jsonObject.getJSONObject("paging");
if (!paging.getBoolean("is_end")) {
List<Request> requests = new ArrayList<>();
requests.add(new Request(paging.getString("next")));
return requests;
}
return null;
}
@Override
public boolean isSupport(Request request, Response response) {
return true;
}
public static void main(String[] args) {
// 构建Redis队列调度器
Scheduler scheduler = RedisFIFOQueueScheduler.Builder.custom()
.setRedisConfig(RedisConfig.DEFAULT_REDIS_CONFIG)
.setRequestFilter(RedisBloomRequestFilter.Builder.create())
.build();
// 构建数据消费者
Consumer consumer = new MongoDBConsumer(MongoDBConfig.DEFAULT_MONGODB_CONFIG);
// 构建Reptile爬虫配置类
ReptileConfig config = ReptileConfig.Builder.cutom()
.setThreadCount(8)
.appendResponseHandlers(new ZhihuPageHandler())
.setDeploymentMode(DeploymentModeEnum.Distributed)
.setScheduler(scheduler)
.setConsumer(consumer)
.build();
// 根据reptile配置构建Reptile爬虫并添加爬去的URL
Reptile reptile = Reptile.create(config).addUrls(URLS);
// 启动爬虫
reptile.start();
}
}