springboot中kafka的基本使用

一、 前言

在现在基本人手一部手机的时代,信息是无时不在,如何让信息在各个系统之间高效且准确的传递是一个很重要的技术,为此有大佬研究了一个个消息中间件技术,例如RabbitMQ、ActiveMQ、Kafka、RocketMQ等等,比较而言,RabbitMQ和Kafka的使用居多,在此来学习一下如何使用他,写下此博客记录便于回顾,写得不够好请大家多多支持。

二、前提准备

已经搭建好kafka环境,本人搭建使用的 zookeeper-3.5.5 + kafka_2.12-3.3.1

三、主体内容

1. 创建项目

首先使用idea工具创建出一个springboot项目,通过在idea中选择组件kafka即可自动引入相关依赖
kafka项目创建.png

此处我使用的springboot版本是 2.7.10 对应的kafka客户端版本可自行在maven依赖中查看。
项目创建成功后pom文件内容如下

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>2.7.10</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
    <groupId>com.zx</groupId>
    <artifactId>springboot-kafka</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>springboot-kafka</name>
    <description>Demo project for Spring Boot</description>
    <properties>
        <java.version>1.8</java.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>

        <!--kafka依赖-->
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka-test</artifactId>
            <scope>test</scope>
        </dependency>
    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
            </plugin>
        </plugins>
    </build>

</project>

相较于平常创建的web项目只是多了 个spring-kafka 包,这个是官方的spring兼容包和springboot是无缝对接了。

2. 第二步就是对kafka进行配置

kafka使用时是区分 producer(生产者)和consumer(消费者)的,在此项目中是可以同时进行两者的配置使用的。对kafka的配置可以分为三部分

  • 第一部分:kafka的连接配置
# kafka配置
spring.kafka.bootstrap-servers=192.168.1.6:9092 
  • 第二部分:对producer的设置
# producer配置
## 消息key序列化器
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.IntegerSerializer
## 消息value 序列化器
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
## 生产者每个批次最多放多少条记录
spring.kafka.producer.batch-size=16384
## 生产者一端总的可用发送缓冲区大小 32MB=33554432
spring.kafka.producer.buffer-memory=33554432
  • 第三部分:对consumer设置
# cosumer配置
## 消息key反序列化器
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.IntegerDeserializer
## 消息value 反序列化器
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

spring.kafka.consumer.group-id=consumer01
## 如果在kafka中找不到当前消费者的偏移量,则直接将偏移量重置为最早的
spring.kafka.consumer.auto-offset-reset=earliest
## 消费者的偏移量是自动提交还是手动提交
spring.kafka.consumer.enable-auto-commit=true
## 消费者偏移量自动提交的时间间隔
spring.kafka.consumer.auto-commit-interval=1000

配置完成了,我们启动一下项目,检验一下是否能正常启动,如果自行配置的某些项存在问题,项目是不能正常启动的。

3. 编写推送消息代码小demo

代码根据场景可分为三部分,分别为同步推送消息、异步推送消息、消息消费

同步推送消息

我们创建一个http接口来模拟同步消息推送

    /**
     * 同步
     * @return
     */

    @RequestMapping("sync/send/{message}")
    public String sendSync(@PathVariable String message){
        LOGGER.info("同步发送推送消息到kafka开始,topic = {}",demoTopic);
        ListenableFuture<SendResult<Integer, String>> future = template.send(demoTopic, 0, 0, message);
        try {
            SendResult<Integer, String> sendResult = future.get();
            RecordMetadata metadata = sendResult.getRecordMetadata();
            LOGGER.info("推送结果:metadata: topic={},分区(partition)={},偏移量(offset)={}",metadata.topic(),metadata.partition(),metadata.offset());

        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (ExecutionException e) {
            e.printStackTrace();
        }

        return "success";
    }

异步推送消息

同样异步也是使用一个接口模拟

    /**
     * 异步
     * @return
     */
    @RequestMapping("async/send/{message}")
    public String sendAsync(@PathVariable String message){
        ListenableFuture<SendResult<Integer, String>> future = template.send(demoTopic, 0, 0, message);
        future.addCallback(new ListenableFutureCallback<SendResult<Integer, String>>() {
            @Override
            public void onFailure(Throwable ex) {
                LOGGER.error("发送消息失败,topic={},data:{}",demoTopic,message);
            }

            @Override
            public void onSuccess(SendResult<Integer, String> result) {
                RecordMetadata metadata = result.getRecordMetadata();
                LOGGER.info("发送消息成功:metadata: topic={},分区(partition)={},偏移量(offset)={}",metadata.topic(),metadata.partition(),metadata.offset());
                LOGGER.info("发送成功消息:{}",message);

            }
        });

        return "success";
    }

消息消费

现在推送的消息有了,那就需要使用消息了,是如何使用呢,是通过注解 @KafkaListener来实现的

package com.zx.springboot.component;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

/**
 * @author : Mr.Zx
 * @version : 1.0.0
 * @ClassName : ConsumerMessage.java
 * @Description : TODO
 * @createTime : 2023-04-09 09:51
 */
@Component
public class ConsumerMessage {

    private static final Logger LOGGER = LoggerFactory.getLogger(ConsumerMessage.class);

    @Value("${message.demoTopic}")
    private String listerTopic;

    @KafkaListener(topics = "demoTopic-01")
    public void onMessage(ConsumerRecord<Integer,String> record){
        LOGGER.info("消费者收到消息:topic = {},partition={},offset={},key={},value={}",record.topic(),record.partition(),record.offset(),record.key(),record.value());

    }

}

基本使用代码写完了,就得跑起来测试一下了,最后测试结果不成功那是无意义的,上述使用场景比较简单,对于发送消息和消费消息的其他模式后续再进行完善

四、扩展

推荐两个关于kafka讲解的资料,真得很好我就是从这上面学的,

详解 SpringBoot 集成 Kafka 全面实战,超全面精讲教程

Kafka3.x教程(从入门到调优,深入全面)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,928评论 6 509
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,748评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,282评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,065评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,101评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,855评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,521评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,414评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,931评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,053评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,191评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,873评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,529评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,074评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,188评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,491评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,173评论 2 357

推荐阅读更多精彩内容