Centos7下搭建hadoop

具体可以参考Hadoop官网 http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.htmlhttp://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/ClusterSetup.html

1. 安装前准备

需要安装对应的java和ssh及sshd

Centos7下已经安装好了ssh及sshd,这里就不描述了。

java安装详见:http://www.jianshu.com/p/5d3ecf3b30f6

下面的例子都是安装的oracle的jdk8演示的。 

java -version 查看是否配置安装成功:


2. 安装hadoop

从官网下载需要的版本,这里用的是当前最新的2.8.1。

用 tar -zxvf 进行解压。

在解压的目录下修改etc/hadoop/hadoop-env.sh,只需要修改对应的JAVA_HOME:

可以看到一bin/hadoop目录的一些用法:

然后官网给出了3种安装方式(本地,伪分布式,分布式):

2.1 Local(Standalone) 本地模式

在安装hadoop的根目录运行:mkdir input

复制etc/hadoop下的xml文件到input文件夹:cp etc/hadoop/*.xml input

运行hadoop的example,这里根据具体的hadoop版本来看(这里用的是2.8.1):bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar grep input output 'dfs[a-z.]+'

这个例子应该是统计对应的文件夹下xml中有多少个'dfs[a-z.]+',然后输出结果到output。再次验证这个例子时需要用不同的输出文件夹,这里方便测试删除了output,运行bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar grep input output 'xml+':

在output文件加下有2个文件:

其中part-r-00000记录了 ‘13    xml’。

2.2 Pseudo-Distributed 伪分布式

2.2.1 按照官网的说明进行配置修改:

修改etc/hadoop/core-site.xml文件(根据自己的域名进行修改,不一定是localhost,可能修改过了):vim etc/hadoop/core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/hdfs/tmp</value>

</property>

<property>

<name>fs.trash.interval</name>

<value>4320</value>

</property>

</configuration>

修改etc/hadoop/hdfs-site.xml文件:vim etc/hadoop/hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/usr/local/src/hadoop-2.8.1/hdfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/usr/local/src/hadoop-2.8.1/hdfs/data</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.permissions.superusergroup</name>

<value>staff</value>

</property>

<property>

<name>dfs.permissions.enabled</name>

<value>false</value>

</property>

</configuration>

2.2.2 按照官网的配置设置免密码登录:

一般情况下是需要进行设置的(还是根据具体的域名和用户来进行设置):

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

$ chmod 0600 ~/.ssh/authorized_keys

运行完上面的命令后进行检测:ssh localhost,发现不需要设置密码了。

2.2.3 运行mapreduce

参考官网进行配置:

首先格式化文件系统:bin/hdfs namenode -format

确定NameNode和DataNode的守护进程:sbin/start-dfs.sh

查看是否启动成功: jps

在web页面访问安装hadoop机器的ip(hadoop2.8.1的默认端口是50070,上图中的是3.X版本的文档,写的是默认端口9870):http://hadoopIp:50070

创建HDFS文件夹来运行mapreduce任务

$ bin/hdfs dfs -mkdir /user

$ bin/hdfs dfs -mkdir /user/<username>

复制输入文件到分布式文件系统hdfs(这里创建的input不是当前hadoop根目录下的input)

$ bin/hdfs dfs -mkdir input

$ bin/hdfs dfs -put etc/hadoop/*.xml input

运行提供的例子(不是很明白这里和前面的操作有什么不同):bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar grep input output 'dfs[a-z.]+'

检查输出文件:bin/hdfs dfs -cat output/*

测试完成,关闭守护进程:sbin/stop-dfs.sh

2.2.4 运行YARN

参考官网进行配置:

修改mapred-site.xml:vim etc/hadoop/mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

修改yarn-site.xml(这里配置一个环节变量的白名单):vim etc/hadoop/yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.env-whitelist</name>

<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>

</property>

</configuration>

这里要修改环境变量设置,在末尾添加:

export HADOOP_HOME=/usr/local/src/hadoop-2.8.1/

export HADOOP_PREFIX=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_PREFIX

export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop

export HADOOP_HDFS_HOME=$HADOOP_PREFIX

export HADOOP_MAPRED_HOME=$HADOOP_PREFIX

export HADOOP_YARN_HOME=$HADOOP_PREFIX

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:

启动ResourceManager和NodeManager守护进程:sbin/start-yarn.sh

在浏览器中查看ResourceManager的web页面:http://hadoopIp:8088

运行一个mapreduce的任务:

先启动dfs:bin/start-dfs.sh,

然后还是继续运行hadoop的example:bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar grep input output 'dfs[a-z.]+' (这里暂时不知道运行结果是否正确,卡在这里没动;这是因为liunx的硬盘空间超过了90%,需要清理)

再次刷新检查ResourceManager的web页面,可以看到下方多了上图中运行的任务

测试完成,关闭Yarn的守护进程: sbin/stop-yarn.sh

2.3 集群配置

集群配置详见(根据对应的版本去查找,这里给的是最新的地址)http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/ClusterSetup.html 。这里简单地介绍下基于前面搭建好的伪分布式进行搭建。

我们先按照1master,3个slave的方式来搭建;首先将搭建伪分布式hadoop的虚拟机复制3份,将机器的域名改成master, slave1, slave2和slave3.

下面提到的要修改的文件都是在hadoop根目录下的etc/hadoop下。

在所有的机器上修改core-site.xml (只要将原来的localhost全部改成master):

在master节点上修改hdfs-site.xml(只要添加dfs.namenode.secondary.http-address):

在所有节点上修改mapred-site.xml(只要添加mapreduce.jobhistory.address和mapreduce.jobhistory.webapp.address):

jobhistory是 Hadoop自带了一个历史服务器,用于记录 Mapreduce历史作业。默认情况下, jobhistory没有启动,可用手动通过命令启动。

这里用的2.8.1的命令是:mapred historyserver。其他版本的需要查看相关文档。

所有节点修改yarn-site.xml(按照下图标红的添加):

master节点修改slaves文件(每个slave域名都需要是独立的一行):

不难发现集群配置的修改主要是把默认配置的localhost域名指向了master。

这里要重新运行格式化文件系统(如果hadoop根目录的hdfs/data下有内容,需要清理,避免造成前面搭建环境引起的问题):hdfs namenode -format

在master上运行start-dfs.sh:

在web页面进行查看:


在所有节点上运行jps查看:

可以发现master上只启动了NameNode和SecondaryNameNode,其他slave节点上只有DataNode启动。

在master上运行start-yarn.sh:

在web页面查看cluster信息:

可以发现3个Node的信息了,在所有节点上运行jps:

发现master上多了ResourceManager,其他slave上多了NodeManager。

最后在master上运行官网的例子,需要重新创建hdfs目录:

$ hdfs dfs -mkdir /user

$ hdfs dfs -mkdir /user/root

复制输入文件到分布式文件系统hdfs(这里创建的input不是当前hadoop根目录下的input)

$ hdfs dfs -mkdir input

$ hdfs dfs -put etc/hadoop/*.xml input

在hadoop根目录运行:bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.1.jar grep input output 'dfs[a-z.]+'

查看输出结果:hdfs dfs -cat output/*

在集群的web页面查看:

要查看history需要先运行mapred historyserver:

点击集群web页面下的history链接,可以看具体的信息:

到这里应该表示集群都已经搭建好了,也可以通过web页面进行查看。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,053评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,527评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,779评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,685评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,699评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,609评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,989评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,654评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,890评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,634评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,716评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,394评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,976评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,950评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,191评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,849评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,458评论 2 342

推荐阅读更多精彩内容