kafka 基于Partition 和group 消费,kafka如何消费avro格式数据

kafka消费模式 基于partition 指定offset

基于group   auto.offset.reset 选择初始位置,对应groupid的offset不存在时从哪里消费

kafka配置详解 http://damacheng009.iteye.com/blog/2088020

package com.vacp.api.kafka.common;

import com.alibaba.fastjson.JSON;

import com.alibaba.fastjson.JSONObject;

import com.vacp.api.common.ObjectSerializeUtils;

import com.vacp.api.kafka.avro.AvroHelper;

import com.videtek.kafka.*;

import org.apache.kafka.clients.consumer.*;

import org.apache.kafka.clients.producer.*;

import org.apache.kafka.common.TopicPartition;

import org.slf4j.Logger;

import org.slf4j.LoggerFactory;

import java.util.*;

import java.util.concurrent.Future;

public class KafkaUtils {

private final static int MAX_VALUE =3;

    private final static LoggerLOGGER = LoggerFactory.getLogger(KafkaUtils.class);

    private static Propertiesprops_pro =new Properties();

    private static Propertiesprops_con =new Properties();

    private static Producerproducer =null;

    private KafkaUtils() {

}

/**

* 生产者,注意kafka生产者不能够从代码上生成主题,只有在服务器上用命令生成

*/

    static {

//服务器ip:端口号,集群用逗号分隔

        props_pro.put("bootstrap.servers", Config.BROKER64);

        props_pro.put("acks", "all");

        props_pro.put("retries", MAX_VALUE);

        props_pro.put("batch.size", 16384);

        props_pro.put("linger.ms", 1);

        props_pro.put("buffer.memory", 33554432);

        props_pro.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        props_pro.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        props_pro.put("max.in.flight.requests.per.connection",1);

        props_pro.put("unclean.leader.election.enable",false);

        props_pro.put("replication.factor",3);

        props_pro.put("min.insync.replicas",2);

        props_pro.put("replication.factor",3);

        producer=getKafkaProducer();

        flushData();

    }

/**

* 消费者

*/

    static {

//服务器ip:端口号,集群用逗号分隔

        props_con.put("bootstrap.servers", Config.BROKER64);

        props_con.put("group.id", Config.GROUP_ID);

        //初始化消费offset位置

        props_con.put("auto.offset.reset", "earliest");

        props_con.put("enable.auto.commit", true);

        props_con.put("auto.commit.interval.ms", "1000");

        props_con.put("session.timeout.ms", "30000");

        props_con.put("max.poll.records", "1800");

        props_con.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

      // props_con.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

      props_con.put("value.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer");

        // props_con.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.ByteArraySerializer");

    }

/**

* 发送对象消息 至kafka上,调用json转化为json字符串,应为kafka存储的是String。

    * @param msg

    */

    public static void sendMsgToKafka(KafkaProducer producer,String msg) {

ProducerRecord record =new ProducerRecord(Config.TOPIC, String.valueOf(System.currentTimeMillis()),

                msg);

        Future future = producer.send(record,new SendCallback(producer,record,0));

        //if(future.isDone())

//System.out.println(JSON.toJSONString(future));

    }

/**

* 发送对象消息 至kafka上,调用json转化为json字符串,应为kafka存储的是String。

    * @param msg

    */

    public static void sendMsgToKafka(String msg) {

ProducerRecord record =new ProducerRecord(Config.TOPIC, String.valueOf(System.currentTimeMillis()),

                msg);

        Future future =producer.send(record,new SendCallback(record,0));

    }

/**

* 发送对象消息 至kafka上,调用json转化为json字符串,应为kafka存储的是String。

    * @param msg

    */

    public static void sendMsgToKafka(String topic,String msg) {

ProducerRecord record =new ProducerRecord(topic, String.valueOf(System.currentTimeMillis()),

                msg);

        Future future =producer.send(record,new SendCallback(record,0));

    }

public static void sendMsgToKafka(KafkaProducer producer,String topic,String msg) {

ProducerRecord record =new ProducerRecord(topic, String.valueOf(System.currentTimeMillis()),

                msg);

        Future future = producer.send(record,new SendCallback(producer,record,0));

        //System.out.println(JSON.toJSONString(future));

    }

/**

* 从kafka上接收对象消息,将json字符串转化为对象,便于获取消息的时候可以使用get方法获取。

*/

    public static void getMsgFromKafka(){

Consumer consumer = KafkaUtils.getKafkaConsumer();

        while(true){

ConsumerRecords records = consumer.poll(500);

            LOGGER.info("消息个数:" + records.count());

            if (records.count() >0) {

for (ConsumerRecord record : records) {

JSONObject msg = JSON.parseObject(record.value());

                    LOGGER.info("从kafka接收到的消息是:" + msg);

                }

}

}

}

public static ConsumergetKafkaConsumer() {

KafkaConsumer consumer =new KafkaConsumer(props_con);

        consumer.subscribe(Arrays.asList(Config.TOPIC));

        return consumer;

          }

public static ConsumergetKafkaConsumer(String topic) {

KafkaConsumer consumer =new KafkaConsumer(props_con);

        consumer.subscribe(Arrays.asList(topic));

        return consumer;

    }

public static ConsumergetKafkaConsumer(String topic,String groupid) {

props_con.put("group.id", groupid);

        KafkaConsumer consumer =new KafkaConsumer(props_con);

        consumer.subscribe(Arrays.asList(topic));

        return consumer;

    }

public static  ConsumergetBeginConsumer(String topic,String groupid){

props_con.put("group.id", groupid);

        KafkaConsumer consumer =new KafkaConsumer(props_con);

        TopicPartition partition0 =new TopicPartition(topic, 0);

        TopicPartition partition1 =new TopicPartition(topic, 1);

        TopicPartition partition2 =new TopicPartition(topic, 2);

        Set set =new HashSet<>();

        set.add(partition0);

        set.add(partition1);

        set.add(partition2);

        consumer.assign(set);

        consumer.seekToBeginning(set);

        return consumer;

    }

public static KafkaProducergetKafkaProducer(){

KafkaProducer producer =new KafkaProducer(props_pro);

        return producer;

    }

public static void flushData(){

new Thread(new Runnable() {

@Override

            public void run() {

                try {

                    Thread.sleep(5000L);

                    producer.flush();

                }catch (Exception e){

                    e.printStackTrace();

                }

}

        }).start();

    }

/**

* producer回调

*/

    static class SendCallbackimplements Callback {

KafkaProducerproducer;

        ProducerRecordrecord;

        int sendSeq =0;

        public SendCallback(ProducerRecord record, int sendSeq) {

this.record = record;

            this.sendSeq = sendSeq;

        }

public SendCallback(KafkaProducer producer,ProducerRecord record, int sendSeq) {

this.producer = producer;

            this.record = record;

            this.sendSeq = sendSeq;

        }

@Override

        public void onCompletion(RecordMetadata recordMetadata, Exception e) {

//send success

            if (null == e) {

String meta ="topic:" + recordMetadata.topic() +", partition:"

                        + recordMetadata.topic() +", offset:" + recordMetadata.offset();

                //LOGGER.info("send message success, record:" + record.toString() + ", meta:" + meta);

                return;

            }

//send failed

                LOGGER.error("send message failed, seq:" +sendSeq +", record:" +record.toString() +", errmsg:" + e.getMessage());

            if (sendSeq <1) {

producer.send(record, new SendCallback(record, ++sendSeq));

            }

}

}

public static void subscribeVehicle(String topic,String groupid) {

//Consumer consumer =getKafkaConsumer(topic,groupid);

        Consumer consumer =getBeginConsumer(topic,groupid);

      int i =0 ;

      int count =0;

        while(true){

ConsumerRecords records = consumer.poll(10);

            count=count+records.count();

            System.out.println("count = [" + count +"]");

            AvroHelper helper =new AvroHelper();

            for(ConsumerRecord  record:records) {

//Vehicle vehicle= helper.deserialize(Vehicle.class, record.value());

//System.out.println(ObjectSerializeUtils.toJSON(vehicle));

//  System.out.println(new String(record.value(),Charset.forName("utf-8")));

            }

}

}

public static void subscribePerson(String topic,String groupid) {

//Consumer consumer =getKafkaConsumer(topic,groupid);

        Consumer consumer =getBeginConsumer(topic,groupid);

        int i =0 ;

        int count =0;

        while(true){

ConsumerRecords records = consumer.poll(10);

            count=count+records.count();

            System.out.println("count = [" + count +"]");

            AvroHelper helper =new AvroHelper();

            for(ConsumerRecord  record:records) {

Person vehicle= helper.deserialize(Person.class, record.value());

                System.out.println(ObjectSerializeUtils.toJSON(vehicle));

            }

}

}

public static void subscribeBicycle(String topic,String groupid) {

// Consumer consumer =getKafkaConsumer(topic,groupid);

        Consumer consumer =getBeginConsumer(topic,groupid);

        int i =0 ;

        int count =0;

        while(true){

ConsumerRecords records = consumer.poll(10);

            count=count+records.count();

            System.out.println("count = [" + count +"]");

            AvroHelper helper =new AvroHelper();

            for(ConsumerRecord  record:records) {

Bicycle vehicle= helper.deserialize(Bicycle.class, record.value());

                System.out.println(ObjectSerializeUtils.toJSON(vehicle));

            }

}

}

public static void subscribeVehiclePassingInfo(String topic,String groupid) {

Consumer consumer =getKafkaConsumer(topic,groupid);

        int i =0 ;

        int count =0;

        while(true){

ConsumerRecords records = consumer.poll(10);

            count=count+records.count();

            System.out.println("count = [" + count +"]");

            AvroHelper helper =new AvroHelper();

            for(ConsumerRecord  record:records) {

VehiclePassingInfo  vehicle= helper.deserialize(VehiclePassingInfo.class, record.value());

                System.out.println(ObjectSerializeUtils.toJSON(vehicle));

            }

}

}

public static void subscribePeerVehicle(String topic,String groupid) {

Consumer consumer =getKafkaConsumer(topic,groupid);

        int i =0 ;

        int count =0;

        while(true){

ConsumerRecords records = consumer.poll(10);

            count=count+records.count();

            System.out.println("count = [" + count +"]");

            AvroHelper helper2 =new AvroHelper();

            for(ConsumerRecord  record:records) {

PeerVehicleInfo peer = helper2.deserialize(PeerVehicleInfo.class, record.value());

                System.out.println(ObjectSerializeUtils.toJSON(peer));

            }

}

}

public static void main(String[] args) {

subscribeVehicle("debug_whh_scar_p3r1","group_t2");

        //subscribePerson("debug_whh_spedestrian_p3r1","group_test1");

//subscribeBicycle("debug_whh_scyclist_p3r1","group_test1");

    }

}

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,198评论 6 514
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,334评论 3 398
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 167,643评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,495评论 1 296
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,502评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,156评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,743评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,659评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,200评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,282评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,424评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,107评论 5 349
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,789评论 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,264评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,390评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,798评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,435评论 2 359

推荐阅读更多精彩内容