spark常用参数

spark-sql \

    --master yarn \

    --deploy-mode client \

    --num-executors "20" \

    --executor-cores "2" \

    --executor-memory "6g" \

    --driver-memory "6g" \

    --conf spark.driver.maxResultSize=4g \

    --conf spark.kryoserializer.buffer.max=1024m \

    --conf spark.debug.maxToStringFields=999 \

    --conf spark.sql.broadcastTimeout=2600 \

    --conf spark.network.timeout=1200 \

    --conf spark.rpc.askTimeout=1200 \

    --conf spark.rpc.lookupTimeout=360 \

    --conf spark.locality.wait=10 \

    --conf spark.memory.fraction=0.80 \

    --conf spark.sql.parquet.writeLegacyFormat=true \

    --conf spark.sql.crossJoin.enabled=true \

    --hiveconf hive.metastore.execute.setugi=true \

    --hiveconf hive.exec.dynamic.partition=true \

    --hiveconf hive.exec.dynamic.partition.mode=nonstrict \

    --hiveconf hive.exec.max.dynamic.partitions=1000000 \

    --hiveconf hive.exec.max.dynamic.partitions.pernode=100000 \

    --hiveconf hive.mapred.supports.subdirectories=true \

    --hiveconf mapreduce.input.fileinputformat.input.dir.recursive=true -S

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

友情链接更多精彩内容