文章首发于公众号【大数据学徒】,感兴趣请搜索 dashujuxuetu 或者文末扫码关注。
本文介绍 KafkaFlow,一个可以在浏览器里生产数据和消费数据的小工具,包括它的安装方法和使用方法。因为我自己经常需要登录到服务器上用命令行消费或者生产数据,命令很长,参数也多,敲起来十分繁琐,所以就有了 KafkaFlow,希望可以帮到有同样需求的你。
代码已上传至 github:https://github.com/iamabug/kafka-flow
内容提要:
- 安装方法
- 使用方法
- 源码编译
- 总结
1. 安装方法
在 github 的 releases 页面下载二进制压缩包:
或者使用 wget
下载:
wget https://github.com/iamabug/kafka-flow/releases/download/v0.1.0/kafka-flow-dist-0.1.0-bin.tar.gz
解压:
tar xvf kafka-flow-dist-0.1.0-bin.tar.gz
进入目录,并启动服务:
cd kafka-flow-0.1.0-bin
bin/kafka-flow.sh start
在浏览器里访问对应地址(比如:http://localhost:12345),出现如下页面说明启动成功。
2. 使用方法
使用方法很简单:先配置集群,然后进行生产和消费。
集群配置
点击"集群配置",再点击"添加集群":
在新页面中输入 Kafka 集群的名称和 bootstrap.servers 的地址(多个地址用逗号分隔即可):
点击确认之后,可以看到集群列表:
集群添加成功。
目前只支持集群的删除,不支持修改。
生产数据
点击"生产数据",选择对应的集群,输入 topic 名称,然后在下方文本框中输入要生产的消息,一条或多条都可以:
点击"生产"按钮即可,上图中生产了两条消息。
消费数据
点击"消费数据",选择对应的集群,输入 topic 名称,选择 offset reset 的类型,earliest 从最老的数据消费,latest 从最新的数据消费:
点击"开始消费"按钮,稍等一会,下方的文本框就会出现消费到的数据:
点击"停止消费"按钮,即可停止消费。
3. 源码编译
源码编译也很简单:
git clone https://github.com/iamabug/kafka-flow
cd kafka-flow
mvn clean package
编译出来的二进制包的位置为 ./kafka-flow-dist/target
目录下。
4. 总结
KafkaFlow 是我用业余时间开发的小项目,主要是解决我自己工作中经常需要 SSH 到服务器上用命令行生产和消费数据的需求,如果对你也有帮助,欢迎 Star,也欢迎加入我一起完善它。
欢迎交流讨论,吐槽建议,分享收藏。
勤学似春起之苗,不见其增,日有所长
辍学如磨刀之石,不见其损,日有所亏
关注【大数据学徒】,用技术干货助你日有所长