155、Spark内核原理进阶之cogroup算子内部实现原理

首先看一段代码

    public static void cogroup2() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("cogroupJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Tuple2<String, Integer>> words1 = Arrays.asList(
                new Tuple2<String, Integer>("hello", 1),
                new Tuple2<String, Integer>("hello", 1),
                new Tuple2<String, Integer>("world", 1),
                new Tuple2<String, Integer>("hello", 1),
                new Tuple2<String, Integer>("you", 1)
        );

        List<Tuple2<String, Integer>> words2 = Arrays.asList(
                new Tuple2<String, Integer>("hello", 1),
                new Tuple2<String, Integer>("world", 1),
                new Tuple2<String, Integer>("hello", 1),
                new Tuple2<String, Integer>("you", 1)
        );


        // 并行化集合,创建初始化RDD
        JavaPairRDD<String, Integer> words1RDD = javaSparkContext.parallelizePairs(words1);
        JavaPairRDD<String, Integer> words2RDD = javaSparkContext.parallelizePairs(words2);

        // 使用cogroup算子关联两个RDD
        // 相当于是,一个key join上的所有value,都给放到一个Iterable里面去了
        // cogroup,不太好讲解,希望通过动手编写我们的案例,仔细体会其中的奥妙
        JavaPairRDD<String, Tuple2<Iterable<Integer>, Iterable<Integer>>> studentScore = words1RDD.cogroup(words2RDD);
        studentScore.foreach(new VoidFunction<Tuple2<String, Tuple2<Iterable<Integer>, Iterable<Integer>>>>() {
            @Override
            public void call(Tuple2<String, Tuple2<Iterable<Integer>, Iterable<Integer>>> t) throws Exception {
                System.out.println(t._1);
                System.out.println(t._2._1);
                System.out.println(t._2._2);
                System.out.println("===============================");
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();

    }

看图


cogroup.png

cogroup算子

  1. 基础的算子
  2. 在我们大量的实践中,很少遇到说要用cogroup算子的情况
  3. cogroup算子是其他很多算子的基础,比如join

可以把上面那段代码跑一下,其实就是将两个个rdd的key对应的value值分别封装到一个Iterator中去

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • Spark的算子的分类 从大方向来说,Spark 算子大致可以分为以下两类: 1)Transformation 变...
    姚兴泉阅读 5,222评论 0 6
  • Spark的算子的分类 从大方向来说,Spark 算子大致可以分为以下两类: 1)Transformation 变...
    达微阅读 4,361评论 0 6
  • 3.2 弹性分布式数据集 本节简单介绍RDD,并介绍RDD与分布式共享内存的异同。 3.2.1 RDD简介 在集群...
    Albert陈凯阅读 5,507评论 0 0
  • Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AM...
    大佛爱读书阅读 7,881评论 0 20
  • 前言 继基础篇讲解了每个Spark开发人员都必须熟知的开发调优与资源调优之后,本文作为《Spark性能优化指南》的...
    Alukar阅读 4,390评论 0 2

友情链接更多精彩内容