SparkStreaming如何维护Kafka消息偏移量

SparkStreaming    维护    Kafka    消息偏移量据个人了解有两种方式

一、利用    SparkStreaming    自带的    Checkpoint    方法来维护

二、自己来编写维护    Kafka    消息偏移量的代码

首先说明下集群中的各组件版本

Hadoop-version:    2.7.1

Spark-version    :    1.6.2

zookeeper-version:    3.4.6

jdk-version:              1.8

maven-version:        3.3.3

kafka-version:           0.10.0

集群搭建方式    HDP(ambari)

首先说第一种    SparkStreaming    自带的    Checkpoint    方法,以下为代码示例

object Test {

def main(args: Array[String]): Unit = {

//    TODO:创建检查点的位置可以设置为Hdfs如果程序重新启动spark程序会到此目录中检查并恢复

    val checkpointDirectory ="";

//    TODO:调用getOrCreate方法,这个方法入如果是第一次运行该作业

    //    TODO:没有checkpointDirectory该文件时

    //    TODO:将会重新创建一个StreamingContext,并从最新或是最老的偏移量处开始消费

    val ssc: StreamingContext = StreamingContext.getOrCreate(checkpointDirectory, () => {

createStreaming(checkpointDirectory)

})

ssc.start()

ssc.awaitTermination()

}

//  TODO:你的业务逻辑不应该写在main函数中,而是应该写在创建

  //  TODO:StreamingContext的方法中

  def createStreaming(checkpointDirectory:String): StreamingContext = {

        val brokerlist:String ="192.168.1.1:6667,192.168.1.1:6667"

        val topic =Set("test")

        val kafkaParams:Map[String,String] =Map[String,String]("metadata.broker.list" -> brokerlist)

        val conf: SparkConf =new SparkConf()

                                    .setMaster("local")

                                    .setAppName(Test.getClass.getSimpleName)

        val ssc: StreamingContext =new StreamingContext(conf,Seconds(3))

//    TODO:在这里创建检查点,至于检查点在哪里创建,具体需要看个人的业务需求

        ssc.checkpoint(checkpointDirectory)

        val data: InputDStream[(String,String)] =

                        KafkaUtils.createDirectStream[String,String, StringDecoder, StringDecoder](ssc, kafkaParams, topic)

//  TODO:以下代码就是你的业务逻辑了,这里只是循环遍历打印了Key,Value

        data.foreachRDD(rdd => {

                rdd.foreachPartition(partition => {

                        if (partition.isEmpty) {

                                for (tuple <- partition) {

                                    println(tuple._1 + tuple._2)

                            }

                        }

                    })

                })

            ssc

            }

        }

说一下这个方法的缺点:

这个方法不适合总是需要迭代升级的应用,因为这个方法会在你建立检查点时将你的jar包信息以序列化的方式存在此目录中,

如果你的作业挂掉重新启动时,这时候是没有问题的,因为什么都没有改变。

但是在你的应用迭代升级时你的代码发生了变化,这是程序会发现其中的变化,你迭代升级后的版本将无法运行,就算是启动成功了,

运行的也还是迭代升级之前的代码。所还是以失败而告终!!

在Spark官方文档中给出了两个解决办法

第一个:老的作业不停机,新作业个老作业同时运行一段时间,这样是不安全的!!!

会导致数据重复消费,也有可能会发生数据丢失等问题

第二个:就是我要讲的自己维护消息偏移量

以下是自己维护消息偏移量代码示例

object Test{

        def main(args: Array[String]): Unit = {

//    TODO: Zookeeper 集群地址和端口

                val zkHost:String ="192.168.1.1:2181,192.168.1.1:2181,192.168.1.1:2181"

    //    TODO:Kafka集群地址及端口

                val brokerlist:String ="192.168.1.1:6667,192.168.1.1:6667,192.168.1.1:6667"

    //    TODO:指定消费 Kafka 主题

                val topic:String ="test"

                val kafkaParams:Map[String,String] =Map[String,String]("metadata.broker.list" -> brokerlist)

                val conf: SparkConf =new SparkConf()

                                .setMaster("local[8]")

                                .setAppName(NGBoss_Dcc_Analysis.getClass.getSimpleName)

//    TODO:获取一个StreamingContext对象

                val ssc: StreamingContext =new StreamingContext(conf,Seconds(5))

//    TODO:将获取的Zookeeper客户端

                val zkClient =new ZkClient(zkHost)

                var offsetRanges: Array[OffsetRange] =Array[OffsetRange]()

//    TODO:设置在zookeeper中存储offset的路径

                val topicDirs: ZKGroupTopicDirs =new ZKGroupTopicDirs("TEST_TOPIC_spark_streaming", topic)

                val children = zkClient.countChildren(s"${topicDirs.consumerOffsetDir}")


                var fromOffsets:Map[TopicAndPartition, Long] =Map()

                var kafkaStream: InputDStream[(String, Array[Byte])] =null

                          if (children >0) {

//TODO:如果 zookeeper 中有保存 offset,我们会利用这个 offset 作为 kafkaStream 的起始位置

//TODO:如果保存过 offset,这里更好的做法,还应该和  kafka 上最小的 offset 做对比,不然会报 OutOfRange 的错误

                                for (i <-0 until children) {

                                    val partitionOffset = zkClient.readData[String](s"${topicDirs.consumerOffsetDir}/${i}")

                                    val tp =TopicAndPartition(topic, i)

//TODO:将不同 partition 对应的 offset 增加到 fromOffsets 中

                    fromOffsets += (tp -> partitionOffset.toLong)

                    }

//TODO:这个会将 kafka 的消息进行 transform,最终 kafak 的数据都会变成 (topic_name, message) 这样的 tuple

              val messageHandler: (MessageAndMetadata[String, Array[Byte]]) => (String, Array[Byte]) = (mmd:                                 MessageAndMetadata[String, Array[Byte]]) => (mmd.topic, mmd.message())

              kafkaStream = KafkaUtils.createDirectStream[String, Array[Byte], StringDecoder, ByteDecoder,                                 (String, Array[Byte])](ssc, kafkaParams, fromOffsets, messageHandler)

            }else {

//TODO:如果未保存,根据 kafkaParam 的配置使用最新或者最旧的 offset

                  kafkaStream = KafkaUtils.createDirectStream[String, Array[Byte], StringDecoder, ByteDecoder]                                (ssc, kafkaParams,Set(topic))

                }

            kafkaStream.foreachRDD(rdd => {

                    if (!rdd.isEmpty()) {

                        rdd.foreachPartition(partition=> {

                                partition.foreach(tuple => {

                                    println(tuple._1 + tuple._2)

                                })

                        })

                    offsetRanges = rdd.asInstanceOf[HasOffsetRanges].offsetRanges

                                for (o <- offsetRanges) {

                                val zkPath:String =s"${topicDirs.consumerOffsetDir}/${o.partition}"

          //TODO:将该 partition 的 offset 保存到 zookeeper

                                 ZkUtils.updatePersistentPath(zkClient, zkPath, o.fromOffset.toString)

                            }

                        }

                    })

            ssc.start()

        ssc.awaitTermination()

        }

    }

第二种方法中offset可以存储在zookeeper中也可以存储在数据库中

自己维护offset是不会发生Checkpoint 中的问题,是我目前知道的最好的一个解决方案。

但是也有其中的缺点,如果从失败中恢复运行时不能获取到Key值,默认它的Key就是主题。

还有就是不能同时消费维护多个主题中的偏移量。

如果你有跟好的解决方案,还请不要吝啬你的知识!!!!!

谢谢你可以在百忙之中看完我写的文章!!!!!!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,172评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,346评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,788评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,299评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,409评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,467评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,476评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,262评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,699评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,994评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,167评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,499评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,149评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,387评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,028评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,055评论 2 352

推荐阅读更多精彩内容