Hadoop文件分片split的原理解析

1. 定义

1.1 block

block是物理块,文件存放到HDFS上后,会将大文件按照每块128MB的大小切分,存放到不同的DataNode上。

1.2 split

split是逻辑上的分片,在MapReduce中Map开始之前,会将输入文件按照指定大小切分为多个小片,每一部分对应一个Map Task,默认split的大小与block的大小相同,为128MB。

2. 参数设置

2.1 block默认配置在hdfs-site.xml中【$HADOOP_HOME/share/hadoop/hdfs/hadoop-hdfs-x.y.z.jar

<property>
    <name>dfs.blocksize</name>
    <value>134217728</value>
    <description>
        默认block的大小参数配置以字节为单位(例如134217728,128 MB)。
        也可以使用如128k,512m,1g等为单位(不区分大小写)。
    </description>
</property>

2.2 split大小由minSizemaxSizeblockSize决定

  • long minSize = 1
    FileInputFormat.getSplits方法中,minSize的赋值:
    // 取getFormatMinSplitSize()、getMinSplitSize(job)的最大值
    long minSize = Math.max(getFormatMinSplitSize(), getMinSplitSize(job));
    
    protected long getFormatMinSplitSize() {
        return 1;
    }
    
    public static long getMinSplitSize(JobContext job) {
        return job.getConfiguration().getLong(SPLIT_MINSIZE, 1L);
    }
    
  • long maxSize = Long.MAX_VALUE
    FileInputFormat.getSplits方法中,maxSize的赋值:
    long maxSize = getMaxSplitSize(job);
    
    public static long getMaxSplitSize(JobContext context) {
        return context.getConfiguration().getLong(SPLIT_MAXSIZE, Long.MAX_VALUE);
    }
    
    public long getLong(String name, long defaultValue) {
        // 用户自定义了参数
        String valueString = getTrimmed(name);
        if (valueString == null)
            // 返回默认值Long.MAX_VALUE
            return defaultValue;
        String hexString = getHexDigits(valueString);
        if (hexString != null) {
            return Long.parseLong(hexString, 16);
        }
        return Long.parseLong(valueString);
    }
    
  • long blockSize = 128MB

2.3 结论

FileInputFormat.getSplits方法中对文件进行了Split:

long blockSize = file.getBlockSize();
long splitSize = computeSplitSize(blockSize, minSize, maxSize);

protected long computeSplitSize(long blockSize, long minSize, long maxSize) {
    return Math.max(minSize, Math.min(maxSize, blockSize));
}
image.png

split与block的对应关系可以是多对一,默认一对一:

  1. 如果blockSize < maxSize && blockSize < minSize,那么split就是blockSize【一对一】
  2. 如果blockSize < maxSize && blockSize > minSize,那么split就是minSize
  3. 如果blockSize > maxSize && maxSize > minSize,那么split就是maxSize【多对一】
  4. 如果blockSize > maxSize && maxSize < minSize,那么split就是minSize

3. 分片主要源码

public List<InputSplit> getSplits(JobContext job) throws IOException {
    Stopwatch sw = new Stopwatch().start();
    // 分片最小值,默认为 1
    long minSize = Math.max(getFormatMinSplitSize(), getMinSplitSize(job));
    // 分片最大值,默认为 LONG.MAX_VALUE
    long maxSize = getMaxSplitSize(job);

    // 生成分片列表
    List<InputSplit> splits = new ArrayList<InputSplit>();
    // 列出文件状态
    List<FileStatus> files = listStatus(job);
    for (FileStatus file: files) {
        // 获得文件路径和大小
        Path path = file.getPath();
        long length = file.getLen();
        if (length != 0) {
            BlockLocation[] blkLocations;
            // 获得block块的位置信息
            if (file instanceof LocatedFileStatus) {
                blkLocations = ((LocatedFileStatus) file).getBlockLocations();
            } else {
                FileSystem fs = path.getFileSystem(job.getConfiguration());
                blkLocations = fs.getFileBlockLocations(file, 0, length);
            }
            // 判断文件是否可以分片
            if (isSplitable(job, path)) {
                // 获得文件blockSize大小,默认128MB
                long blockSize = file.getBlockSize();
                // 获得split大小,默认128MB
                long splitSize = computeSplitSize(blockSize, minSize, maxSize);
                // 文件剩余大小
                long bytesRemaining = length;
                // 当剩余大小大于split大小的1.1倍时,进行分片
                // private static final double SPLIT_SLOP = 1.1;
                while (((double) bytesRemaining)/splitSize > SPLIT_SLOP) {
                    // 获得block块的索引位置
                    int blkIndex = getBlockIndex(blkLocations, length-bytesRemaining);
                    // 分片
                    splits.add(makeSplit(path, length-bytesRemaining, splitSize,
                            blkLocations[blkIndex].getHosts(),
                            blkLocations[blkIndex].getCachedHosts()));
                    // 原文件减去已经分片大小
                    bytesRemaining -= splitSize;
                }
                // 判断文件是否已经完成分片,如果还有剩余,则将剩余部分作为一个分片
                if (bytesRemaining != 0) {
                    int blkIndex = getBlockIndex(blkLocations, length-bytesRemaining);
                    splits.add(makeSplit(path, length-bytesRemaining, bytesRemaining,
                            blkLocations[blkIndex].getHosts(),
                            blkLocations[blkIndex].getCachedHosts()));
                }
            } else { // not splitable
                splits.add(makeSplit(path, 0, length, blkLocations[0].getHosts(),
                        blkLocations[0].getCachedHosts()));
            }
        } else {
            //Create empty hosts array for zero length files
            splits.add(makeSplit(path, 0, length, new String[0]));
        }
    }
    // Save the number of input files for metrics/loadgen
    job.getConfiguration().setLong(NUM_INPUT_FILES, files.size());
    sw.stop();
    if (LOG.isDebugEnabled()) {
        LOG.debug("Total # of splits generated by getSplits: " + splits.size()
                + ", TimeTaken: " + sw.elapsedMillis());
    }
    return splits;
}

// 分片,封装分片信息,文件路径,分片起始位置,分片大小,对应block块所在的hosts列表,对应block块缓存副本所在的hosts列表
protected FileSplit makeSplit(Path file, long start, long length, String[] hosts, String[] inMemoryHosts) {
    return new FileSplit(file, start, length, hosts, inMemoryHosts);
}

写在最后

上面说到的,当剩余大小大于split大小的1.1倍时,进行分片

private static final double SPLIT_SLOP = 1.1;

我还没有想出问什么是1.1倍,我猜想是为了减少一些分片数量,比如这种情况?


这种
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,699评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,124评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 167,127评论 0 358
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,342评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,356评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,057评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,654评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,572评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,095评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,205评论 3 339
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,343评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,015评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,704评论 3 332
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,196评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,320评论 1 271
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,690评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,348评论 2 358

推荐阅读更多精彩内容