四、分布式计算框架MapReduce

一、MapReduce概述

MapReduce概述

二、wordCount入门MapReduce

wordcount入门MapReduce

2.1 MapReduce编程模型之Map与Reduce阶段

Map与Reduce阶段

MapReduce执行步骤

2.2 官网关于MapReduce执行步骤的描述

key:指的是起始位置的偏移量,value指的是对应行的值。key和value必须实现以下两个接口

inputs and OutPuts

执行过程

三、MapReduce核心概念

3.1、Split:交由MapReduce作业来处理的数据块,是MapReduce中最小的计算单元
HDFS:blocksize 是HDFS中最小的存储单元 128M
默认情况下:他们两是一一对应的,当然我们也可以手工设置他们之间的关系(不建议)

3.2、InputFormat:
将我们的输入数据进行分片(split): InputSplit[] getSplits(JobConf job, int numSplits) throws IOException;
TextInputFormat: 处理文本格式的数据


几个reduceTask就有几个输出文件

四、MapReduce架构之1/2.x

1.x

总结1

总结2

2.x

五、Java版本的wordCount功能实现

package com.imooc.hadoop.mapreduce;

import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;
import java.util.Iterator;

/**
 * Created by zhouzhouseela on 2018/4/2.
 */
//这里的Map/Reduce的每一个键值对都要定义好
public class WordCountApp {

    // map是读取输入的文件,投入的的是每一行文本的偏移量:每一行文本的一个键值对,产出一个String:long的键值对,比如
    // hadoop:1,linux:1这样的键值对。
    public class MyMapper extends Mapper<LongWritable,Text,Text,LongWritable>{

        //这里的key表示偏移量,value表示每一行字符串
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
                String line = value.toString();
                String[] words = line.split(" ");
                for(String word:words){
                    context.write(new Text(word),new LongWritable(1));
                }

        }
    }
    //reduce投入的是map的产出,然后产出的是hadoop:2这样的汇总结果(归并操作)
    public class MyReduce extends Reducer<Text,LongWritable,Text,LongWritable>{

        // 因为输入的都是hadoop:1,hadoop1,linux:1这样的,把单词对应的values加起来就得到其频次。
        @Override
        protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
            Iterator<LongWritable> valueIt = values.iterator();
            long sum =0;
            while(valueIt.hasNext()){
                sum+=valueIt.next().get();
            }
            context.write(key,new LongWritable(sum));

        }
    }

    public static void main(String[] args) throws Exception {
       Configuration configuration =new Configuration();
        Job job =Job.getInstance(configuration,"wordCount");
        job.setJarByClass(WordCountApp.class);
        //设置作业处理的输入路径
        FileInputFormat.setInputPaths(job,new Path(args[0]));
        //设置map相关的参数
        job.setMapOutputValueClass(MyMapper.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(LongWritable.class);
        // 设置reduce相关的参数
        job.setReducerClass(MyReduce.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(LongWritable.class);

        //设置作业处理的输出路径
        FileOutputFormat.setOutputPath(job,new Path(args[1]));
        System.exit(job.waitForCompletion(true) ? 0 : 1);



    }
}

maven实现wc
解决MR过程中的一个bug
    FileSystem fileSystem = FileSystem.get(configuration);
    if(fileSystem.exists(new Path(args[1]))){
        fileSystem.delete(new Path(args[1]),true);
    }

六、MapReduce编程之Combiner:相当于在本地进行reduce。

Combiner

6.1 使用场景

  • 适合求和、次数等
  • 对求平均的场景不适合

七、MapReduce编程之Partitioner

Partitioner编程

分发的数据按照不同的分类来处理并且输出到不同的文件

一个栗子

  • 假设有如下的文件,要求将相同类型的收入放在一个reduce上处理
    [图片上传失败...(image-eca267-1522660460404)]
  • 代码如下
    ···
    package com.imooc.hadoop.mapreduce;

import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Partitioner;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;
import java.util.Iterator;

//这里的Map/Reduce的每一个键值对都要定义好
public class PartitionerDemo {

// map是读取输入的文件,投入的的是每一行文本的偏移量:每一行文本的一个键值对,产出一个String:long的键值对,比如
// hadoop:1,linux:1这样的键值对。
public class MyMapper extends Mapper<LongWritable,Text,Text,LongWritable>{

    //这里的key表示偏移量,value表示每一行字符串
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        String line = value.toString();
        String[] words = line.split(" ");
        // 对于如上的格式,每一行中的第一个是名称,第二个是价格
        for(String word:words){
            context.write(new Text(words[0]),new LongWritable(Long.parseLong(words[1])));
        }

    }
}
//reduce投入的是map的产出,然后产出的是hadoop:2这样的汇总结果(归并操作)
public class MyReduce extends Reducer<Text,LongWritable,Text,LongWritable>{

    // 因为输入的都是hadoop:1,hadoop1,linux:1这样的,把单词对应的values加起来就得到其频次。
    @Override
    protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
        Iterator<LongWritable> valueIt = values.iterator();
        long sum =0;
        while(valueIt.hasNext()){
            sum+=valueIt.next().get();
        }
        context.write(key,new LongWritable(sum));

    }
}
// 定义Partition的Class
public class MyPartitioner extends Partitioner<Text,LongWritable>{

    public int getPartition(Text key, LongWritable value, int i) {
        if(key.equals("xiaomi")){
            return 0;
        }
        if(key.equals("hauwei")){
            return 1;
        }
        if(key.equals("iphone7")){
            return 2;
        }
        return 3;
    }
}

public static void main(String[] args) throws Exception {


    Configuration configuration =new Configuration();


    FileSystem fileSystem = FileSystem.get(configuration);
    if(fileSystem.exists(new Path(args[1]))){
        fileSystem.delete(new Path(args[1]),true);
    }

    Job job =Job.getInstance(configuration,"wordCount");
    job.setJarByClass(WordCountApp.class);
    //设置作业处理的输入路径
    FileInputFormat.setInputPaths(job,new Path(args[0]));
    //设置map相关的参数
    job.setMapOutputValueClass(MyMapper.class);
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(LongWritable.class);
    // 设置reduce相关的参数
    job.setReducerClass(MyReduce.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(LongWritable.class);
    //设置job的partition
    job.setPartitionerClass(MyPartitioner.class);
    job.setNumReduceTasks(4);

    //设置作业处理的输出路径
    FileOutputFormat.setOutputPath(job,new Path(args[1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);



}

}

···

七、Hadoop编程之JobHistory

JobHistory
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,701评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,649评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,037评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,994评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,018评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,796评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,481评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,370评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,868评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,014评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,153评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,832评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,494评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,039评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,156评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,437评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,131评论 2 356

推荐阅读更多精彩内容