Streaming metadate checkpoint详解

spark streaming的checkpoint目的是保证长时间运行的任务在意外挂掉后保证数据不丢失,checkpoint包含两种数据:metadata和data,本篇主要讨论对metadata的checkpoint。

如何checkpoint

  1. 如果要对metadata做checkpoint,首先要有一个可靠的文件系统保证数据的安全性,spark支持hdfs等。通过代码streamingContext.checkpoint(checkpointDirectory)指定具体的存储路径;

  2. jobGenerator在每一个batch时间后调用generateJobs方法,在jobScheduler.submitJobSet提交任务后,执行doCheckpoint方法来保存metadata;

  3. doCheckpoint方法中先判断是否需要checkpoint,条件为ssc.checkpointDuration != null && ssc.checkpointDir != null,最重要的是指定后面的ssc.checkpointDir指定路径,再判断是否到时间,如果满足条件进行正式代码;

  4. 通过ssc.graph.updateCheckpointData(time)调用DStream的updateCheckpointData,从而执行每个DStream子类的checkpointData.update(currentTime),以DirectKafkaInputDStream为例,最后执行的是DirectKafkaInputDStreamCheckpointData的update,目的是更新要持久的源数据checkpointData.data;通过dependencies.foreach(_.updateCheckpointData(currentTime))使所有依赖的DStream执行;
  5. 所有DStream都执行完update后,执行CheckpointWriter.write(new Checkpoint(ssc, time), clearCheckpointDataLater),本次batchcheckpoint完成;

  6. 当jobGenerator接收到batch完成事件后,通过jobGenerator.onBatchCompletion(jobSet.time)调用clearMetadata方法,最后执行DStream的clearMetadata删除generatedRDDs的过期RDD的metadata。

如何恢复

  1. 要从checkpoint中恢复,在创建StreamingContext时略有不同,代码如图
  2. StreamingContext的getOrCreate方法中,先通过CheckpointReader.read( checkpointPath, new SparkConf(), hadoopConf, createOnError)反序列化出Checkpoint,如果Checkpoint不为空即路径存在且有数据,使用StreamingContext(null, _, null)构造方法创建StreamingContext;

  3. StreamingContext.start后,在使用DStreamGraph的实例时时会判断此实例为新创建或从checkpoint中恢复,如从checkpoint中恢复,则执行graph.restoreCheckpointData(),通过DStream的restoreCheckpointData最终调用DStream子类内部的DStreamCheckpointData.restore将保存的RDD metadata写回到generatedRDDs里;

  4. 同时jobGenerator在start时,判断ssc.isCheckpointPresent,实际就是判断ssc里面的cp_是否有值从而执行restart方法。restart方法首先从checkpoint的时间开始恢复任务,然后生成从最后时间到restartTime时间序列;
  5. 调用graph.generateJobs生成job,在方法内会调用DStream的generateJobs时,在getOrCompute方法通过上面还原的generatedRDDs获取对应时间的RDD源数据信息,如果没有再重新生成,最后提交任务。

创建与恢复区别

  1. 先看一下Checkpoint中包括哪些信息:

    val master = ssc.sc.master
    val framework = ssc.sc.appName
    val jars = ssc.sc.jars
    val graph = ssc.graph
    val checkpointDir = ssc.checkpointDir
    val checkpointDuration = ssc.checkpointDuration
    val pendingTimes = ssc.scheduler.getPendingTimes().toArray
    val delaySeconds = MetadataCleaner.getDelaySeconds(ssc.conf)
    val sparkConfPairs = ssc.conf.getAll
    

    以上数据都是通过反序列化恢复得到的,对新程序的所有的配置都不会生效,比如队列、资源数等。

  2. 恢复checkpoint时,从文件系统反序列化数据成CheckPoint的具体代码为Checkpoint.deserialize(fis, conf),所以还原的信息要与当前编译的serialVersion一致,否则会出现异常

  3. 在jobGenerator中,新创建的StreamingContext调用的是startFirstTime方法,会初始化DStream的一些数据;而checkpoint恢复调用的是restart。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 兜兜转转这么多年,不知道为什么总是忘不了一个人,就是想见他一面,看看他过的怎么样,不管他是否还记得我!
    走远201411阅读 133评论 0 0
  • 我们家的男孩现在3岁,我准备这样养男孩。 男孩主要分成三个阶段: 1、0-6岁幼儿园阶段 这个阶段关键字是“爱”。...
    余叔阅读 211评论 0 1
  • 清晨,被婉转悦耳的鸟鸣叫醒。我躺在被窝里,用心仔细地听着这美妙的音乐。叽叽喳喳,叽叽喳喳,嘿!居然听不见了。 于是...
    沐洋公子阅读 106评论 0 1
  • 是不是我前世的愛情遺落在江南 若不然為什麼今世的寂寞總與江南有染。 ...
    禾乡阅读 614评论 2 19