Spark三种属性配置方式详细说明

来源:https://www.iteblog.com/archives/1140.html
作者:过往记忆
时间:20140924

Spark的系统配置参数有三种方法:

  1. Spark Properties属性配置
  2. Environment variables环境变量
  3. Logging日志配置
一. Spark Properties属性配置

属性配置有三种配置方式。
<li> 代码配置方式
<code>
val conf = new SparkConf()
.setMaster("local[2]")
.setAppName("CountingSheep")
.set("spark.executor.memory", "1g")
val sc = new SparkContext(conf)
</code>

<li>命令行参数方式
在spark-submit和spark-shell命令的参数中指定。

<code>
./bin/spark-submit --name "My app" --master local[4] --conf spark.shuffle.spill=false
--conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" myApp.jar
</code>

spark-shell只支持–master这种形式的参数。spark-submit除了支持这种形式的参数外,还支持–conf标识。
<li>配置文件spark-defaults.conf方式
spark-submit还会读取spark-submit中的配置项

<code>
spark.master spark://5.6.7.8:7077
spark.executor.memory 512m
spark.eventLog.enabled true
spark.serializer org.apache.spark.serializer.KryoSerializer
</code>

如果几种形式的参数有冲突,以第一种方式的优先级最高,第二种方式的优先级次之,第三种方式的优先级最低。

其他
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容