mapreduce初体验--wordcount

mapreduce是hadoop的核心部分之一。是分布式运算程序的编程框架。相对于hdfs,mapreduce就是一个客户端。
hdfs:
namenode,管理整个系统的元数据
datanode,管理用户的文件数据块(不负责切片,切片客户端完成),
每一个文件块有多个副本,存放于不同的datanode上。
定期向namenode汇报自身保存的文件block信息,namenode会负责保持文件副本的数量。
secondarydatanode,做checkpoint。
hdfs不支持文件更改内容,只能追加。

分布式运算程序一般分为两个阶段。第一阶段map的并发实例maptask完全并行。第二阶段reduce的reducetask也是互不相干。但是他们的数据依赖于上一阶段maptask的输出。mapreduce编程模型只能包含一个map和一个reduce。如果业务逻辑复杂,只能多个mapreduce程序串行运行。
maptask和reducetask由mr application master协调。

  • Wordcount例子
package hadoop.wcdemo;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class WordcountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
    @Override
    protected void map(LongWritable key, Text value,Context context)throws IOException, InterruptedException {
        String line = value.toString();
        String[] words = line.split(" ");
        for(String word:words){
            context.write(new Text(word), new IntWritable(1));
        }
    }
}


package hadoop.wcdemo;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
public class WordcountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
    @Override
    protected void reduce(Text key, Iterable<IntWritable> values,Context context)
            throws IOException, InterruptedException {
        int count=0;
        for(IntWritable value:values){
            count+=value.get();
        }
        context.write(key, new IntWritable(count));
    }
}


package hadoop.wcdemo;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
public class WordcountDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        Configuration conf = new Configuration();
        /*conf.set("mapreduce.framework.name", "yarn");
        conf.set("yarn.resourcemanager.hostname", "mini1");*/
        Job job = Job.getInstance(conf);
        
        job.setJarByClass(WordcountDriver.class);
        job.setMapperClass(WordcountMapper.class);
        job.setReducerClass(WordcountReducer.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        
        /*job.submit();*/
        boolean res = job.waitForCompletion(true);
        System.exit(res?0:1);
    }
}

在集群上运行:

先把编好的程序打成jar包上传到集群任一机器
start-dfs.sh
start-yarn.sh

hadoop fs -mkdir -p /wordcount/input
hadoop fs -put xxx /wordcount/input

hadoop jar wordcount.jar hadoop.wcdemo.WordcountDriver /wordcount/input /wordcount/output

程序分为3个部分,Mapper,Reducer(继承父类),Driver(提交运行mr程序的客户端)。Mapper输入kv对,输出也是kv对的形式。Mapper的业务逻辑写在map方法中。map方法(maptask进程)对每一个<k,v>调用一次(k是那一行起始偏移量v是一行的内容,对应一行)。Reducer输入类型对应Mapper的输出数据类型。业务逻辑写在reduce方法中。reducetask进程对每一组相同k的<k,v>组调用一次reduce方法。Driver提交的是一个描述了各种必要信息的job对象。
submit后先查看hdfs获取待处理文件的信息,根据参数配置形成任务分配的规划(文件的分片)(job.split,job.xml,wc.jar),然后把这些对象提交给yarn,找一台机器启动mr appmaster。mr appmaster根据文件的分片启动maptask进程(优先在存文件的机器上起相应的maptask)。maptask进程其实是一个管理者,调用很多组件来完成任务。一行一行读文件是其实是调用inputformat组件里的方法。读到的kv结果后再调用我们定义的wordcountmapper(map(k,v),context.write(k,v))。再交给outputcollector组件收集文件排序分区(按照给那个reducer分区)。所有maptask执行完后,mr appmaster再启动reducetask。reducetask从刚才maptask写好的分区文件中取出属于自己分区的数据。每一组kv对调用wordcountreducer(reduce(k,itvalues),context.write(k,v))。最后调用outputformat组件写出数据(不需要收集缓存直接写出)。往hdfs文件(part-r00001,part-r00002……)不断追加。

wordcount运行全流程
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,099评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,828评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,540评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,848评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,971评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,132评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,193评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,934评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,376评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,687评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,846评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,537评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,175评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,887评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,134评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,674评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,741评论 2 351

推荐阅读更多精彩内容