Spark经典案例之数据排序

业务场景:数据排序

1、”数据排序”是许多实际任务执行时要完成的第一项工作,
比如学生成绩评比、数据建立索引等。这个实例和数据去重类似,都是先对原始数据进行初步处理,为进一步的数据操作打好基础。
1)、需求描述
对输入文件中数据进行排序。输入文件中的每行内容均为一个数字,即一个数据。
要求在输出中每行有两个间隔的数字,其中,第一个代表原始数据在原始数据集中的位次,第二个代表原始数据。

2)输入文件
file1:
2
32
654
32
15
756
65223

file2:
5956
22
650
92

file3:
26
54
6

样例输出:
1 2
2 6
3 15
4 22
5 26
6 32
7 32
8 54
9 92
10 650
11 654
12 756
13 5956
14 65223

package ClassicCase

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 业务场景:数据排序
  * Created by YJ on 2017/2/8.
  */


object case3 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("reduce")
    val sc = new SparkContext(conf)
    sc.setLogLevel("ERROR")
    val three = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case3")
    var idx = 0

    //由入输入文件有多个,产生不同的分区,为了生产序号,使用HashPartitioner将中间的RDD归约到一起。
    import org.apache.spark.HashPartitioner

    val res = three.filter(_.trim().length>0)                    //清洗数据
               .map(num=>(num.trim.toInt,""))                    //转换数据
                  .partitionBy(new HashPartitioner(1))           //将所有数据放到一个分区
                      .sortByKey()                               //按自然顺序排序
                          .map(t => {                            //整理输出格式
                              idx += 1
                              (idx,t._1)}
                              ).collect.foreach(x =>  println(x._1 +"\t" + x._2) )

  }

}

输出结果:
1 2
2 6
3 15
4 22
5 26
6 32
7 32
8 54
9 92
10 650
11 654
12 756
13 5956
14 65223

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 这是第几个冬天,在你离开以后,我记不清了。 我只记得,你曾说没关系,我会一直在你身边。可是转眼你就不见了。我发...
    Haha_l阅读 313评论 0 0
  • What’s the real truth hide in the surface of people dair...
    尹泽Rancho阅读 384评论 0 0
  • 星期日 2016 09/25 对于大多数人来讲,文学总是会有一种距离感,总觉得是一种即便可能每天都在看,可还是会觉...
    忧伤的傻子阅读 242评论 3 3
  • 一直以来,韩国电影总能勾起我想看的欲望,它们制作也许不算特别宏大,却总能直达人心,不禁让自己情感代入,叩问自己。而...
    休亘阅读 1,353评论 0 1