Spark - 资源动态释放

通过spark-submit会固定占用一占的资源,有什么办法,在任务不运作的时候将资源释放,让其它任务使用呢,yarn新版本默认已经支持了,我们使用的是HDP。

版本如下

配置

  1. HDP里面已经默认支持spark动态资源释配置

  2. 代码配置

val sparkConf = new SparkConf()
    .set("spark.shuffle.service.enabled", "true")
    .set("spark.dynamicAllocation.enabled", "true")
    .set("spark.dynamicAllocation.minExecutors", "1") //最少占用1个Executor
    .set("spark.dynamicAllocation.initialExecutors", "1") //默认初始化一个Executor
    .set("spark.dynamicAllocation.maxExecutors", "6") //最多占用6个Executor
    .set("spark.dynamicAllocation.executorIdleTimeout", "60") //executor闲置时间
    .set("spark.dynamicAllocation.cachedExecutorIdleTimeout", "60") //cache闲置时间
    .set("spark.executor.cores", "3")//使用的vcore
    //    .setMaster("local[12]")
    .setAppName("Spark DynamicRelease")

  val spark: SparkSession = SparkSession
    .builder
    .config(sparkConf)
    .getOrCreate()

注意事项

如果spark计算当中使用了rdd.cache,不加下面的配置,动态资源不会释放

.set("spark.dynamicAllocation.cachedExecutorIdleTimeout", "60")

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 新鲜文章,昨天刚经过线上验证过的,使用它导出了3亿的用户数据出来,花了半个小时,性能还是稳稳的,好了不吹牛皮了,直...
    kikiki2阅读 144评论 0 2
  • Hadoop3.2 集群新版本的搭建详细讲解过程,从下面第一张官方的图来看,最新版是3.2,所以大猪将使用3.2的...
    kikiki2阅读 163评论 0 2
  • 在Flink中我们有时候需要分析数据1点到2点的范围,可是经过Region又比较慢,这时候我们就可以定制Table...
    kikiki2阅读 168评论 0 1
  • 在Phoenix客户端使用自定义函数UDF时候是正常的,但是在本地测试的时候报Function类找不到的异常。 异...
    kikiki2阅读 147评论 0 2
  • 在这样一种场景,用户的登录行为数据都会以LoginEvent的行式记录下来,每次失败或者成功以及错误都会记录下来,...
    kikiki2阅读 225评论 0 2