kafka- windows与springboot2.1.X下使用并控制启动

1.kafka的搭建需要依赖zookeeper,现官网最新版已经内置了zookeeper,此处使用内置的ZK.
先去官网下载kafka,
kafka参考:https://blog.csdn.net/woshixiazaizhe/article/details/80610432

image.png

,下载后解压目录格式如图


image.png

其中config是配置文件,复制一下这个文件夹,放到bin/windows下


image.png

2.修改config目录下的zookeeper.properties
新建一个文件夹用于存放ZK的日志
image.png

回到bin/windows目录下,在此目录打开cmd(shift+鼠标右键),输入:

zookeeper-server-start.bat config\zookeeper.properties

特别注意,此目录层级不能过深和带空格,否则会无法启动

image.png

3.此时ZK服务就已经启动了,接下来安装ZK可视化工具ZK-UI,下载地址
https://github.com/DeemOpen/zkui
这是一个java工程,依赖maven搭建,mvn install出jar包
image.png

复制出这个jar包,和config文件,放到同一个目录
输入

java -jar [你的jar包名字]
例如
java -jar zkui-2.0-SNAPSHOT-jar-with-dependencies.jar

ZKui启动成功,参考:https://www.jianshu.com/p/8320a6c52f15

image.png

网页输入

账号admin
密码manager

image.png

4.启动kafka
修改config下server.properties文件,日志改为你需要的目录,


image.png

去kafka的bin/windows目录下

kafka-server-start.bat config\server.properties

,kafka启动成功,此时ZKUI界面可以看到节点了


image.png

5.kafka可视化管理软件kafkatool,安装后连接到节点即可管理


image.png

收到的信息默认是byte类型,可以改成string就可以显示为正常字符串.


image.png
image.png

6.使用java发送消息
此处使用的springboot版本是2.1.3,查看依赖的spring版本是5.1.5,因此spring_kafuka包需要对应的版本否则会依赖冲突


image.png

去maven仓库中找到2.2.4刚好版本符合,引入2.2.4版本


image.png
<dependency>
       <groupId>org.springframework.kafka</groupId>
       <artifactId>spring-kafka</artifactId>
       <version>2.2.4.RELEASE</version>
</dependency>

配置配置文件,注意有
factory.setAutoStartup(autoMark);
方法,为kafka是否随系统自动启动,不需要的时候关闭即可,这个还挺好用的



@Configuration
@EnableKafka
public class KafkaConfiguration {
    //写入配置文件中,控制项目启动时是否启用kafka
    private String kafkaListenerFlag = PropertiesUtil.getProperty("application", "datacenter.kafkaListenerFlag", "false");
  //写入配置文件中,控制kafka的IP端口连接
  private String kafkaIpPort = PropertiesUtil.getProperty("application", "datacenter.kafkaIpPort", "localhost:9092");


    //ConcurrentKafkaListenerContainerFactory为创建Kafka监听器的工程类,这里只配置了消费者
    @Bean
    public ConcurrentKafkaListenerContainerFactory<Integer, String> kafkaListenerContainerFactory() {
        ConcurrentKafkaListenerContainerFactory<Integer, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(consumerFactory());
        boolean autoMark = Boolean.parseBoolean(kafkaListenerFlag);
        System.out.println("是否启动kafka:" + autoMark);
        factory.setAutoStartup(autoMark);
        return factory;
    }

    //根据consumerProps填写的参数创建消费者工厂
    @Bean
    public ConsumerFactory<Integer, String> consumerFactory() {
        return new DefaultKafkaConsumerFactory<>(consumerProps());
    }

    //根据senderProps填写的参数创建生产者工厂
    @Bean
    public ProducerFactory<Integer, String> producerFactory() {
        return new DefaultKafkaProducerFactory<>(senderProps());
    }

    //kafkaTemplate实现了Kafka发送接收等功能
    @Bean
    public KafkaTemplate<Integer, String> kafkaTemplate() {
        KafkaTemplate template = new KafkaTemplate<Integer, String>(producerFactory());
        return template;
    }

    //消费者配置参数
    private Map<String, Object> consumerProps() {
        Map<String, Object> props = new HashMap<>();
        //连接地址
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaIpPort);
        //GroupID
        props.put(ConsumerConfig.GROUP_ID_CONFIG, "bootKafka");
        //是否自动提交
        props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);
        //自动提交的频率
        props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "100");
        //Session超时设置
        props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "15000");
        //键的反序列化方式
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, IntegerDeserializer.class);
        //值的反序列化方式
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        return props;
    }

    //生产者配置
    private Map<String, Object> senderProps() {
        Map<String, Object> props = new HashMap<>();
        //连接地址
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaIpPort);
        //重试,0为不启用重试机制
        props.put(ProducerConfig.RETRIES_CONFIG, 1);
        //控制批处理大小,单位为字节
        props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);
        //批量发送,延迟为1毫秒,启用该功能能有效减少生产者发送消息次数,从而提高并发量
        props.put(ProducerConfig.LINGER_MS_CONFIG, 1);
        //生产者可以使用的总内存字节来缓冲等待发送到服务器的记录
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 1024000);
        //键的序列化方式
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, IntegerSerializer.class);
        //值的序列化方式
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        return props;
    }

}

配置监听者


@Component
public class DemoListener {


    //声明consumerID为demo,监听topicName为topic.quick.demo的Topic
    @KafkaListener(id = "demo", topics = "topic.quick.demo")
    public void listen(String msgData) {

        System.out.println("测试接收kafka: " + msgData + " 时间:" + new Date());
    }
}

模拟发送信息

@RestController
@RequestMapping("/test/kafka")

public class KafKaAction extends BaseAction {

    @Autowired
    private KafkaTemplate<Integer, String> kafkaTemplate;

    @GetMapping(value = "/testKafKa")
    public ModelAndResult getDataBySocket() {

        for (int i = 0; i < 20; i++) {
            kafkaTemplate.send("topic.quick.demo", "测试kafka:" + i);
        }
        return new ModelAndResult(new Date());
    }
}

效率还是挺高的


image.png

注意:
使用远程连接的时候,有时候kafka会去解析写在ZK里面的远程计算机的名字,而不是IP,如果没解析到正确的IP,就会报出 Can't resolve address [计算机:9092]的解析错误,网上很多方法都是改本地hosts来解析,个人觉得不靠谱,总不能每台机器都去改本机hosts吧?
这里可以通过修改zk里面的配置来正确解析,登录到ZKUI界面,找到kafka,进入brokers/ids,将无法解析的计算机名字换成对应的IP地址即可正常解析,不需要改hosts文件


image.png

此时的kafka只有一个分区,即使你的消费者开启了多个实例,也只会有一个消费者能接收到信息,我们一般是需要多个消费者功能消费信息吧,这就要增加partitions节点了,就是加分区


image.png

输入命令
windows的话在win下输入

kafka-topics.bat --zookeeper [zk服务地址]:2181 --alter --partitions [需要加入的节点数] --topic [需要加入的topic]
例如
kafka-topics.bat --zookeeper localhost:2181 --alter --partitions 3 --topic topic.quick.demo

加完后,注意此处分区数应该大于消费者数量,不然又要有消费者接不到


image.png

再次发送效果则被多消费者消费到
消费者1:


image.png

消费者2:


image.png

暂时就这么多,有新内容再更新
2019年11月16日10:59:30

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,377评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,390评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,967评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,344评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,441评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,492评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,497评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,274评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,732评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,008评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,184评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,837评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,520评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,156评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,407评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,056评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,074评论 2 352

推荐阅读更多精彩内容