Hadoop生态圈技术概述

本文对hadoop生态圈技术做一个概要的介绍,文章中的前半部分的信息大多来自于网络,这里只是按照自己的学习思路整理了下。包括如下内容:

  • hadoop诞生记
  • hadoop生态圈
  • 常见组件简介
  • 组件下载
  • 学习路线

一、hadoop诞生记

最早Doug Cutting(后面被称为hadoop之父)领导创立了Apache的项目Lucene,然后Lucene又衍生出子项目Nutch,Nutch又衍生了子项目Hadoop。Lucene是一个功能全面的文本搜索和查询库,Nutch目标就是要试图以Lucene为核心建立一个完整的搜索引擎,并且能达到提到Google商业搜索引擎的目标。网络搜索引擎和基本文档搜索区别就在规模上,Lucene目标是索引数百万文档,而Nutch应该能处理数十亿的网页。因此Nutch就面临了一个极大的挑战,即在Nutch中建立一个层,来负责分布式处理、冗余、故障恢复及负载均衡等等一系列问题。

曙光的到来,2004年,Google发表了两篇论文来论述Google文件系统(GFS)和MapReduce框架,并且使用了这两项技术来拓展自己的搜索系统,于是Doug Cutting看到了这两篇论文的价值并带领他的团队便实现了这个框架,并将Nutch移植上去,于是Nutch的可扩展性得到极大的提高。这个新的框架就是最初的hadoop。2005年,Hadoop作为Lucene的子项目Nutch的一部分正式引入Apache基金会。

在2006年1月,雅虎雇佣Doug Cutting,并让他和一个专门的团队来一起改进Hadoop,并将其作为一个开源项目继续发展。

二、hadoop生态圈

我们通常说到的hadoop包括两部分,一是Hadoop核心技术(或者说狭义上的hadoop),对应为apache开源社区的一个项目,主要包括三部分内容:hdfs,mapreduce,yarn。其中hdfs用来存储海量数据,mapreduce用来对海量数据进行计算,yarn是一个通用的资源调度框架(是在hadoop2.0中产生的)。

另一部分指广义的,广义上指一个生态圈,泛指大数据技术相关的开源组件或产品,如hbase、hive、spark、pig、zookeeper、kafka、flume、phoenix、sqoop等。

生态圈中的这些组件或产品相互之间会有依赖,但又各自独立。比如habse和kafka会依赖zookeeper,hive会依赖mapreduce。

下面图给出了Hadoop技术生态圈的一个大致组件分布图:

需要说明的是,上图并没有包括当前生态圈中的所有组件。而且hadoop生态圈技术在不断的发展,会不断有新的组件出现,一些老的组件也可能被新的组件替代。需要持续关注Hadoop开源社区的技术发展才能跟得上变化。

三、常见组件简介

(一)Hdfs

Hdfs是一种分布式文件系统,是Hadoop体系中数据存储管理的基础。它是一个高度容错的系统,能检测和应对硬件故障,用于在低成本的通用硬件上运行。Hdfs简化了文件的一致性模型,通过流式数据访问,提供高吞吐量应用程序数据访问功能,适合带有大型数据集的应用程序。

(二)Mapreduce

MapReduce分为第一代(称为 MapReduce 1.0或者MRv1,对应hadoop第1代)和第二代(称为MapReduce 2.0或者MRv2,对应hadoop第2代)。第一代MapReduce计算框架,它由两部分组成:编程模型(programming model)和运行时环境(runtime environment)。它的基本编程模型是将问题抽象成Map和Reduce两个阶段,其中Map阶段将输入数据解析成key/value,迭代调用map()函数处理后,再以key/value的形式输出到本地目录,而Reduce阶段则将key相同的value进行规约处理,并将最终结果写到HDFS上。它的运行时环境由两类服务组成:JobTracker和TaskTracker,其中,JobTracker负责资源管理和所有作业的控制,而TaskTracker负责接收来自JobTracker的命令并执行它。

MapReduce 2.0或者MRv2具有与MRv1相同的编程模型,唯一不同的是运行时环境。MRv2是在MRv1基础上经加工之后,运行于资源管理框架YARN之上的MRv1,它不再由JobTracker和TaskTracker组成,而是变为一个作业控制进程ApplicationMaster,且ApplicationMaster仅负责一个作业的管理,至于资源的管理,则由YARN完成。

总结下,MRv1是一个独立的离线计算框架,而MRv2则是运行于YARN之上的MRv1。

(三)Hive

Hive是一种基于Hadoop的数据仓库,由facebook开源,最初用于解决海量结构化的日志数据统计问题。Hive定义了一种类似SQL的查询语言(HQL),将SQL转化为MapReduce任务在Hadoop上执行。通常用于离线分析。

(四)Hbase

HBase是Google Bigtable的克隆版。它是一个针对结构化数据的可伸缩、高可靠、高性能、分布式和面向列的动态模式数据库。和传统关系数据库不同,HBase采用了BigTable的数据模型:增强的稀疏排序映射表(Key/Value),其中,键由行关键字、列关键字和时间戳构成。HBase提供了对大规模数据的随机、实时读写访问,同时,HBase中保存的数据可以使用MapReduce来处理,它将数据存储和并行计算完美地结合在一起。

(五)Zookeeper

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。ZooKeeper包含一个简单的原语集,提供Java和C的接口。

(六)Sqoop

Sqoop是一款开源的工具,主要用于在Hadoop和传统的数据库(mysql、postgresql等)进行数据的传递,可以将一个关系型数据库(例如:MySQL、Oracle、Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。

Sqoop分为一代(称为Sqoop1)和二代(称为Sqoop2),其中Sqoop1的架构,仅仅使用一个Sqoop客户端,Sqoop2的架构,引入了Sqoop server集中化管理connector,以及rest api,web,UI,并引入权限安全机制。

(七)Pig

Apache Pig是MapReduce的一个抽象。它是一个工具/平台,用于分析较大的数据集,并将它们表示为数据流。Pig通常与 Hadoop 一起使用;我们可以使用Apache Pig在Hadoop中执行所有的数据处理操作。要编写数据分析程序,Pig提供了一种称为 Pig Latin 的高级语言。该语言提供了各种操作符,程序员可以利用它们开发自己的用于读取,写入和处理数据的功能。

要使用 Apache Pig 分析数据,程序员需要使用Pig Latin语言编写脚本。所有这些脚本都在内部转换为Map和Reduce任务。Apache Pig有一个名为 Pig Engine 的组件,它接受Pig Latin脚本作为输入,并将这些脚本转换为MapReduce作业。
所以使用PIG,可以让不太擅长编写Java程序的程序员来进行大数据分析处理。

(八)Mahout

Mahout起源于2008年,最初是Apache Lucent的子项目,它在极短的时间内取得了长足的发展,现在是Apache的顶级项目。

Mahout的主要目标是创建一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。Mahout现在已经包含了聚类、分类、推荐引擎(协同过滤)和频繁集挖掘等广泛使用的数据挖掘方法。除了算法,Mahout还包含数据的输入/输出工具、与其他存储系统(如数据库、MongoDB 或Cassandra)集成等数据挖掘支持架构。

(九)Flume

Flume是Cloudera(一个知名的基于开源hadoop的大数据发行商)设计开发的一个开源的日志收集工具, 具有分布式、高可靠、高容错、易于定制和扩展的特点。它将数据从产生、传输、处理并最终写入目标的路径的过程抽象为数据流,在具体的数据流中,数据源支持在Flume中定制数据发送方,从而支持收集各种不同协议数据。同时,Flume数据流提供对日志数据进行简单处理的能力,如过滤、格式转换等。此外,Flume还具有能够将日志写往各种数据目标(可定制)的能力。总的来说,Flume是一个可扩展、适合复杂环境的海量日志收集系统。

(十)Spark

Spark是一个通用计算引擎,能对大规模数据进行快速分析,可用它来完成各种各样的运算,包括 SQL 查询、文本处理、机器学习等,而在 Spark 出现之前,我们一般需要学习各种各样的引擎来分别处理这些需求。Spark不依赖于MapReduce,它使用了自己的数据处理框架。Spark使用内存进行计算,速度更快。Spark本身就是一个生态系统,除了核心API之外,Spark生态系统中还包括其他附加库,可以在大数据分析和机器学习领域提供更多的能力,如Spark SQL,Spark Streaming,Spark MLlib,Spark GraphX,BlinkDB,Tachyon等。

(十一)Storm

Storm是Twitter开源的分布式实时大数据处理框架,最早开源于github,从0.9.1版本之后,归于Apache社区,被业界称为实时版Hadoop。它与Spark Streaming的最大区别在于它是逐个处理流式数据事件,而Spark Streaming是微批次处理,因此,它比Spark Streaming更实时。

(十二)Impala

Impala是Cloudera公司主导开发的新型查询系统,它提供SQL语义,能查询存储在Hadoop的HDFS和HBase中的PB级大数据。已有的Hive系统虽然也提供了SQL语义,但由于Hive底层执行使用的是MapReduce引擎,仍然是一个批处理过程,难以满足查询的交互性。相比之下,Impala的最大特点也是最大卖点就是它的快速。

另外Impala可以Hive结合使用,它可以直接使用Hive的元数据库Metadata。

(十三)Kafka

Kafka是一种分布式的,基于发布/订阅的消息系统,类似于消息对列的功能,可以接收生产者(如webservice、文件、hdfs、hbase等)的数据,本身可以缓存起来,然后可以发送给消费者(同上),起到缓冲和适配的作。

(十四)Yarn

Yarn是一种新的 Hadoop 资源管理器,它是一个通用资源管理系统,可为上层应用提供统一的资源管理和调度。它将资源管理和处理组件分开,它的引入为集群在利用率、资源统一管理和数据共享等方面带来了巨大好处。可以把它理解为大数据集群的操作系统。可以在上面运行各种计算框架(包括MapReduce、Spark、Storm、MPI等)。

(十五)Hue

Hue是一个开源的Apache Hadoop UI系统,通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等。

(十六)Oozie

在Hadoop中执行的任务有时候需要把多个Map/Reduce作业连接到一起,这样才能够达到目的。Oozie让我们可以把多个Map/Reduce作业组合到一个逻辑工作单元中,从而完成更大型的任务。wuOozie是一种Java Web应用程序,它运行在Java servlet容器中,并使用数据库来存储相关信息。

(十七)Ambari

Ambari是一个开源的大数据集群管理系统,可以用来就是创建、管理、监视 Hadoop 的集群,并提供WEB可视化的界面来让用户进行管理。

四、组件下载

我们可以有两种途径获取相关的大数据开源组件,一种是直接获取apache提供的原始组件。另外一种是从一些知名的大数据发行商(如cloudera,简称CDH)获取。

这两种方式各有优劣,从apache获取原始组件,好处是可以及时追踪最新的版本和补丁。从发行商获取的组件,是经过发行商测试、甚至改进的,可能会更加稳定。如果只是自己学习使用,从哪获取没啥区别了。有一点需要注意的是,各个组件都有各自独立的版本规划和演进,之间存在相互依赖的问题,需要考虑彼此间的版本匹配问题。

我们下面举例如何从apache上获取原生组件:

Hadoop生态圈的各种组件和产品都在apache上。我们可以到apache官网上(https://www.apache.org)上去下载,一般会链接到相关的镜像站点上。比如我们进入如下的页面,会看到大量的组件目录列表,下图是截图的一部分:

上图中每行都代表了apache下的一个开源软件,按字母顺序排列的,我们可以看到有hadoop,hbase,hive,impala这几个大数据的组件。我们以hadoop为例来继续,点击上面列表中的hadoop目录,会出现如下的界面:

出现了三个目录节点,其中最后ozone是新一代的一个分布式存储组件,我们暂时不管。上面的common和core目录的内容是一样的。我们再点击common目录,会出现如下界面:

上面每个目录对应的是hadoop的一个版本,我们选择自己需要的版本,比如我们点击hadoop-2.7.6目录,会出现如下界面:

上面有两个目录,名称中含src的表示是源代码,如果下载源代码,需要自己编译打包。我们直接下载编译打包好的,这样下载后直接部署即可,对应上面的就是hadoop-2.7.6.tar.gz目录。

下载到本地解压后,我们会看到如下的目录结构:

上面是hadoop下载包中的内容,其中包含了Hdfs,mapreduce,yarn这三个核心部件。我们可以进行相关的配置,然后运行相关的脚本,就可以启动hdfs,yarn服务。

五、学习路线

(一)、预备知识

1、 linux基础

因为hadoop一般都是在linux下运行,我们要在linux进行大数据环境的安装和配置,肯定需要对linux有所熟悉。另外很多组件在设计上也参考了linux的一些特点,比如hdfs的文件目录树也是类似Linux的目录结构,相关的文件操作命令也是类似linux的文件命令。熟悉linux的相关操作对更好的理解相关组件也是很有帮助的。

2、 java等编程语言

这个可以从两个角度来看,一是各个大数据组件都是由某种编程语言开发出来的,比如hdfs,hbase,hive等是用java语言开发出来的;比如spark,kafka等是用scala语言开发出来的;比如impla是用c++语言开发出来的。这些大数据组件作为开源产品,如果我们要深入学习和了解的话,就需要去阅读源码,甚至可以发现源码中的问题和可以补充的功能,往开源社区提交代码,作开源贡献。

目前来说JAVA语言是各大数据组件使用最多的编程语言,但如上面所列的也有组件使用非JAVA的编程语言,而且相信随着大数据技术的发展,越来越多的编程语言会被用到。作为大数据技术的学习者,我们可能要学习多门编程语言,以便与熟悉更多的大数据组件技术。

另外一个层面是,每个开源组件都提供了对外的API,以让程序员可以编写代码来使用这些开源组件,有些开源组件除了提供与本身开发语言相同的API外,甚至提供了其它编程语言的API。我们要使用这些组件,肯定要使用到某种或某几种API,这样必须要熟悉所使用的API对应的编程语言。

3、 关系数据库与sql语句

很多大数据分析和处理组件,如hive ,spark,impala等都提供了类似关系数据库sql的操作数据的机制。如果对关系数据库及sql已经很熟悉,则对掌握这些组件提供的类sql功能有非常大的帮助。

(二)、环境准备

hadoop各种组件一般都是运行在linux系统上,部分组件也可以在windows下运行。我们最好是准备一个linux的环境来学习。获取Linux环境方式很多,如:

1、 在一台机器上安装Linux操作系统 或 windows和Linux双操作系统

2、 可以在windows或linux操作系统的机器上安装虚拟机软件(如virualbox,vmware等),然后创建linux操作系统的虚拟机

3、 可以直接在网上(如阿里、腾讯等)租赁一台Linux主机

因为hadoop核心组件和很多组件都是基于Jvm运行的,所以机器上一定要安装java运行环境。建议安装java1.8版本。

(三)、分阶段学习

1、先从单个组件学习

一般是先从hadoop核心组件HDFS,maperduce开始学习,然后再逐步学习其它组件。

2、单个组件的基础学习

先掌握单个组件(以及依赖组件)的安装和运行,开始可以先是单机安装,hadoop生态圈的各个组件基本都支持在一台机器上进行安装和运行,以便于简化开发阶段的环境准备。而在应用上线后,往往是集群方式安装和运行。

同时要理解组件的基本架构和原理,对组件有一个整体层面的了解。

另外站在使用者角度(如开发者角度)去学习组件的使用,比如对于hdfs,知道如何通过命令行方式使用hdfs提供的命令进行文件的操作,如何通过组件提供的api(如java api)来编写程序进行操作。

3、对单个组件进行深入学习,包括但不限于如下方面:

1)深入了解组件的原理和架构

2)了解组件分布式部署的配置和性能调优

3)阅读组件的源代码,理解其实现机制

4)发现组件源代码中的问题和不足,向开源社区提交issue,为开源社区做贡献

4、针对业务场景给出大数据的解决方案
比如利用哪些组件配合来解决对应的业务问题,集群如何配置等。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342