如何在Map-Reduce中实现二次排序(对Value排序)

问题背景

众所周知,Map-Reduce任务完成后,输出的结果文件总是按照Key进行升序排列(shuffle阶段完成)。

例如Hadoop里经典的word count程序:

// File1原始数据
hello
world
hello
apple
apple
apple
baby

// 输出结果文件,已按Key进行升序排序
apple 3
baby 1
hello 2
world 1

显然,这种默认的排序方式很多时候能帮开发者减轻负担,因为开发者不用去自行实现对Key进行排序的算法,所有的排序操作均由Hadoop帮开发者完成(详情参考Map-Reduce中的shuffle原理,具体参考map端的partition->spill->(spill.sort)->(combine)过程)。

一切似乎很美好,可是如果我们遇到了要对value排序的需求呢?

// 假设有如下电影评分数据 movies.dat
// 且我们希望对rating进行降序排序, 以便分析每部电影的评分趋势
MovieID, rating
  001,    75.5
  001,    89
  001,    60
  002,    55
  002,    79
  003,    92.5
  003,    92.8
  003,    60
 ......

// 期望输出值(Key有序的同时,按rating降序排序)
  001   89.0
  001   75.5
  001   60.0
  002   79.0
  002   55.0
  003   92.8
  003   92.5
  003   60.0

在“排序”的需求下,我们很自然地会想到:

  • 利用系统默认的排序。
  • 预处理数据,把rating当成Key,movieID当成Value。

虽然按照以上的想法,确实是对作为Key的rating排序了,但我们需要的是降序输出而非默认的升序输出,且输出格式不符合要求(第一列应为movieID)。

此时,就需要引入一种二次排序(Secondary Sort)的概念了。所谓二次排序(Secondary Sort)其实就是人工地对所需字段进行排序,在系统的默认排序基础上做第二次的排序。

解决方案

二次排序(Secondary Sort)概念上不难理解,无非就是自行多做一次特定的排序。可是该如何实现呢?怎么在map-reduce的流程框框内对Value进行人工排序呢?

其实关键技巧就是利用map-reduce会对Key排序的特点,让它“顺带”对Value进行排序。为了达到这种“顺带”的效果,我们可以将原始数据中的Key(MovieID)和Value(rating)合并到一起作为新的Key(MovieBean),同时仍然保持原Value(rating)作为Value。当系统对这个合并的Key(MovieBean)按照某种特性进行排序时,其对应的Value也会被相应地“排序”(因为map端输出时,Key和Value是一个整体数据结构),为此我们应设计一个自定义的Bean类。

/**
 * 自定义的MovieBean类, 将原始数据中的Key和Value合并到一个类中。
 */
public class MovieBean implements WritableComparable<MovieBean>{
    public Text movieID;
    public DoubleWritable score;

    public MovieBean() {

    }

    public MovieBean(Text movieID, DoubleWritable score) {
        this.movieID = movieID;
        this.score = score;
    }

    public void set(Text movieID, DoubleWritable score) {
        this.movieID = movieID;
        this.score = score;
    }

    public Text getMovieID() {
        return movieID;
    }

    public void setMovieID(Text movieID) {
        this.movieID = movieID;
    }

    public DoubleWritable getScore() {
        return score;
    }

    public void setScore(DoubleWritable score) {
        this.score = score;
    }

    @Override
    public String toString() {
        return "movieID=" + movieID +
                ", score=" + score;
    }

    /**
     * 重点! 利用自定义的compareTo方法实现排序效果!
     * @param o object of MovieBean
     * @return result of comparison
     */
    @Override
    public int compareTo(MovieBean o) {
        if(o == null) {
            throw new RuntimeException();
        }
        
        // movieID相同时, 按照score进行降序排序
        if(this.movieID.compareTo(o.getMovieID()) == 0) {
            return -score.compareTo(o.getScore());
        }
        
        // movieID不相同时, 直接按照MovieID排序
        return this.movieID.compareTo(o.getMovieID());
    }

    /**
     * @param dataOutput 序列化输出
     */
    @Override
    public void write(DataOutput dataOutput) throws IOException {
        dataOutput.writeUTF(movieID.toString());
        dataOutput.writeDouble(score.get());
    }
    
    /**
     * @param dataInput 序列化输入
     */
    @Override
    public void readFields(DataInput dataInput) throws IOException {
        movieID = new Text(dataInput.readUTF());
        score = new DoubleWritable(dataInput.readDouble());
    }
}

有了这个自定义的MovieBean类作为新的Key后,Mapper端的输出就从原来的
<MovieID, Rating>键值对转换成了<MovieBean, Rating>键值对。

<MovieID, Rating>  =>  <(MovieID, Rating), Rating>

那么Reducer端接收到的将是大量的<MovieBean, Rating>数据。此时问题就来了,当我们的Key是简单类型时(如IntWritable,Text,DoubleWritable),很自然就能将多个K-V对中相同的Key提取出来,且将多个Value合并成一个集合,构成Reducer端的输入数据结构<Key, List<Value>>。但是当我们的Key是复合类型,例如MovieBean是MovieID和Rating的复合结构时,即使两个MovieBean对象的MovieID相同,但这两个MovieBean却是不会被认为是同一个对象的。

// 1号K-V对
<("0001", 85.0), 85.0>

// 2号K-V对
<("0001", 68.0), 68.0>

// Reducer接收到以上两个K-V对后,并不会把它们合并成<MovieBean, List<Value>>的数据结构
// 因为两个K-V对的Key(MovieBean)并不相同

为了解决这个问题,让Reducer把相同MovieID的MovieBean当成是一样的Key,继而把相同MovieID所对应的Ratings合并成<MovieBean, List<Value>>结构,我们需要通过实现自定义的GroupingComparator来 欺骗 Reducer。

/**
 * 自定义的GroupingComparator
 */
public class MovieGroupingComparator extends WritableComparator {

    /**
     * 构造函数, 告知自定义Bean类
     */
    protected MovieGroupingComparator() {
        super(MovieBean.class, true);
    }

    /**
     * 重写WritableComparator接口的compare方法(类似于普通Comparator接口)
     * @param a movieA
     * @param b movieB
     * @return result of comparison
     */
    @Override
    public int compare(WritableComparable a, WritableComparable b) {
        MovieBean movieA = (MovieBean) a;
        MovieBean movieB = (MovieBean) b;
        
        // 只比较两个MovieBean的MovieID, 忽略其他属性
        return movieA.getMovieID().compareTo(movieB.getMovieID());
    }
}

实现以上的自定义GroupingComparator时,我们在compare方法中只考虑MovieID这一个属性,等同于欺骗了Reducer。Reducer判断两个Key是否相同时只考虑MovieID是否相同,从而将不同的MovieBean对象抽取成一个统一的MovieBean作为Reducer的输入Key,即可顺利合并出<MovieBean, List<Rating>>这样的数据结构。

// example
// 假设Reducer0接收到了以下K-V对
<("0001", 89.0), 89.0>
<("0001", 76.8), 76.8>
<("0001", 69.5), 69.5>
<("0001", 69.3), 69.3>


// 由于compare方法只比较MovieBean中的MovieID属性, 完全忽略Rating, 所以
// 以上4个K-V对中的MovieBean均会被视作一样的Key,最终合并成的数据结构如下
// (为什么是有序的, 因为在map端的spill过程中已经依照rating降序排列了,参考MovieBean
// 类中重写的compareTo方法)

< Key, List<Value>>
<("0001", 89.0), [89.0, 76.8, 69.5, 69.3]>

作业提交

至此,二次排序中所有自定义的工作已经完成。但是千万不要忘记在提交Job之前,给Job设置以上自定义GroupingComparator,否则Job会使用内置默认的GroupingComparator,那我们的二次排序就无法生效了。

movieJob.setGroupingComparatorClass(MovieGroupingComparator.class);

另外,如果需要自定义Reducer数量(例如有时希望输出N个结果文件,则需要N个Reducer),还要自定义Partitioner。Partitioner的作用简单来说就是给Mapper端产生的K-V对打上一个partition id烙印,让系统知道这个K-V对应该被哪个Reducer取走。在本例中,如有需要(不是必须),我们可以按照MovieID进行划分,不同MovieID的K-V对划分到不同的Reducer上进行处理。

/**
 * 自定义Partitioner, 用于划分K-V对被哪个Reducer取走
 */
public class MoviePartitioner extends Partitioner<MovieBean, DoubleWritable> {

    @Override
    public int getPartition(MovieBean movieBean, DoubleWritable doubleWritable, int numReducers) {
        // 相同MovieID的必定会到同一个Reducer上
        return movieBean.getMovieID().hashCode() % numReducers;
    }
}

最后给Job设定自定义的Reducer数,即可启动N个Reducer进行数据处理。

final int NUM_REDUCE_TASK = 5;
movieJob.setNumReduceTasks(NUM_REDUCE_TASK);
单Reducer运行结果

总结

使用SecondarySort可以使我们在Map-Reduce框架内完成自定义排序。依托Map-Reduce会对Key进行排序的特性,可以将需要排序的字段(Value)与原始Key合成为自定义的Bean作为新的Key,原Value保持不动。有了SecondarySort,我们就不必在框架外做额外的工作进行排序,干扰程序的可读性;也不必将原始Key和Value对换,影响输出格式。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,711评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,079评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,194评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,089评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,197评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,306评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,338评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,119评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,541评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,846评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,014评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,694评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,322评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,026评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,257评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,863评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,895评论 2 351

推荐阅读更多精彩内容