learn spark

内容来源:spark source code
1: spark 输入数据的默认task 个数:
解答:分如下情况:
Rdd:
Hadoopfile 计算分片,传递了一个参数 parallelism
Sc.parallelize() 默认值是:spark.default.parallelism
Local mode: number of cores on the local machine

Paste_Image.png

Mesos fine grained mode: 8

Paste_Image.png

Others: total number of cores on all executor nodes or 2, whichever is larger
Because:YarnSchedulerBackend 继承自CoarseGrainedSchedulerBackend

Paste_Image.png

Spark 2.0 中大量使用的Dataset
ExecutedCommandExec

2: 慎用 groupBykey ,可能导致oom

  • Note: As currently implemented, groupByKey must be able to hold all the key-value pairs for any
  • key in memory. If a key has too many values, it can result in an [[OutOfMemoryError]].
    It’s recommended to use PairRDDFunctions.aggregateByKey
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容