kafka avro序列化读写消息

kafka avro序列化读写消息

avro是Hadoop的一个子项目,由Hadoop的创始人Doug Cutting领导开发的一种数据序列化系统。avro具有支持二进制的序列化方式具有丰富的数据结构,可以持久化数据,快速的处理大量数据等优点。kafka与avro的结合能更高效的处理大数据。

在使用avro之前,我们需要提前定义好Schema信息(Json格式),在本案例中,我们定义了一个用户行为对象,使用的数据来自阿里云天池公开数据集 :经过脱敏处理的淘宝用户数据,包括用户id、商品id、商品类别id、用户行为、时间戳。

数据集

创建Schema信息

{
    "namespace": "kafka.bean.UserBehavior",
    "type": "record",
    "name": "Stock",
    "fields": [
        {"name": "userId", "type": "long"},
        {"name": "itemId",  "type": "long"},
        {"name": "categoryId", "type": "long"},
        {"name": "behavior", "type": "string"},
        {"name": "timestamp", "type": "long"}
    ]
}

使用到的pom


        <dependency>
            <groupId>org.apache.avro</groupId>
            <artifactId>avro</artifactId>
            <version>1.8.2</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/com.twitter/bijection-core -->
        <dependency>
            <groupId>com.twitter</groupId>
            <artifactId>bijection-core_2.11</artifactId>
            <version>0.9.6</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/com.twitter/bijection-avro -->
        <dependency>
            <groupId>com.twitter</groupId>
            <artifactId>bijection-avro_2.11</artifactId>
            <version>0.9.6</version>
        </dependency>

定义一个用户行为类

case class UserBehavior(userId: Long,
                        itemId: Long,
                        categoryId: Long,
                        behavior: String,
                        timestamp: Long)
  extends Serializable {

}

object UserBehavior {

  def apply(usrArray: Array[String]): UserBehavior = new UserBehavior(
    usrArray(0).toLong, usrArray(1).toLong, usrArray(2).toLong, usrArray(3), usrArray(4).toLong
  )

kafka生产者

import java.io.File
import java.util.Properties
import com.twitter.bijection.Injection
import com.twitter.bijection.avro.GenericAvroCodecs
import kafka.bean.UserBehavior
import org.apache.avro.Schema
import org.apache.kafka.clients.producer.KafkaProducer
import org.apache.avro.generic.GenericRecord
import org.apache.avro.generic.GenericData
import org.apache.kafka.clients.producer.ProducerRecord

import scala.collection.immutable

/**
  * Created by WZZC on 2019/1/13
  **/
object AvroSerializerProducerTest {

  def main(args: Array[String]): Unit = {

    // Avro Schema解析
    val schema: Schema = new Schema.Parser().parse(new File("src/Customer.avsc"))

    val recordInjection: Injection[GenericRecord, Array[Byte]] = GenericAvroCodecs.toBinary(schema)

    // 用户数据
    val source = scala.io.Source.fromURL(this.getClass.getResource("/UserBehavior.csv"))
    // 数据解析为User对象
    val data: immutable.Seq[UserBehavior] = source.getLines().toList.map(_.split(","))
      .filter(_.length >= 5)
      .map(arr => UserBehavior(arr))

    // kafka配置参数
    val props = new Properties()
    props.put("bootstrap.servers", "localhost:9092")
    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer")
    props.put("value.serializer", "org.apache.kafka.common.serialization.ByteArraySerializer")

  //创建一个kafka生产者
    val producer: KafkaProducer[String, Array[Byte]] = new KafkaProducer(props)

  //将用户数据写入kafka 
  data.foreach(user => {
      val avroRecord: GenericData.Record = new GenericData.Record(schema)
      avroRecord.put("userId", user.userId)
      avroRecord.put("itemId", user.itemId)
      avroRecord.put("categoryId", user.categoryId)
      avroRecord.put("behavior", user.behavior)
      avroRecord.put("timestamp", user.timestamp)
      val bytes = recordInjection.apply(avroRecord)
      try {
        val record = new ProducerRecord[String, Array[Byte]]("user", bytes)
        producer.send(record).get()
        println(user.toString)
      } catch {
        case e: Exception => e.printStackTrace()
      }
    })

    producer.close()

  }

}

##################################################################

Kafka消费者

import java.io.File
import java.util.{Collections, Properties}

import com.twitter.bijection.Injection
import com.twitter.bijection.avro.GenericAvroCodecs
import org.apache.avro.Schema
import org.apache.avro.generic.GenericRecord
import org.apache.kafka.clients.consumer.KafkaConsumer
import scala.collection.JavaConversions._
import org.apache.kafka.clients.consumer.ConsumerRecords

import scala.util.Random

/**
  * Created by WZZC on 2018/01/14
  **/
object kafkaConsume {

  def main(args: Array[String]): Unit = {

    val props = new Properties()
    props.put("bootstrap.servers", "localhost:9092")
    props.put("group.id", "G3") // 消费组ID
    props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
    props.put("value.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer")

    // 创建kafka消费者
    val consumer = new KafkaConsumer[String, Array[Byte]](props)

    // 订阅主题 subscribe() 方法接受一个主题列表作为参数
    // consumer.subscribe("user.*")  也可以使用正则表达式 订阅相关主题
    consumer.subscribe(Collections.singletonList("user"))

    // Avro Schema
    val schema: Schema = new Schema.Parser().parse(new File("src/Customer.avsc"))

    val recordInjection: Injection[GenericRecord, Array[Byte]] = GenericAvroCodecs.toBinary(schema)
 
    try {
      while (true) {
        val consumerRecords: ConsumerRecords[String, Array[Byte]] = consumer.poll(100) //如果没有数据到consumer buffer 阻塞多久

        for (record <- consumerRecords) {

          //  每条记录都包含了记录所属主题的信息、记录所在分区的信息、记录在分区里的偏移量,以及记录的键值对
          val genericRecord: GenericRecord = recordInjection.invert(record.value()).get

          println(genericRecord.get("userId") + "\t" +
            genericRecord.get("itemId") + "\t" +
            genericRecord.get("categoryId") + "\t" +
            genericRecord.get("behavior") + "\t" +
            genericRecord.get("timestamp") + "\t")

        }

      }
      // 同步提交 :在broker对提交请求做出回应之前,应用会一直阻塞
      // 处理完当前批次的消息,在轮询更多的消息之前,
      // 调用 commitSync() 方法提交当前批次最新的偏移量
      consumer.commitAsync()
    } catch {
      case e: Exception => println("Unexpected error", e)
    }
    finally {
      // 异步提交:在成功提交或碰到无法恢复的错误之前,commitSync() 会一直重试,但是commitAsync() 不会
      try {
        consumer.commitSync()
      } finally {
        consumer.close()
      }
    }
  }
}

启动kafka生产者和消费者

查看打印的消费信息


kafka消费数据

参考资料

Kafka权威指南
https://www.iteblog.com/archives/2236.html
https://www.iteblog.com/archives/1008.html

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,258评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,335评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,225评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,126评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,140评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,098评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,018评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,857评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,298评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,518评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,400评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,993评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,638评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,661评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容