Hadoop简介
Hadoop是分布式系统的基础架构,它是根据Google公司发表的MapReduce和Google文件系统的论文自行实现而成。所有的Hadoop模块都有一个基本假设,即硬件故障是常见情况,应该由框架自动处理。Hadoop实现了名为MapReduce的编程范式:应用程序被分割成许多小部分,而每个部分都能在集群中的任意节点上运行或重新运行。此外,Hadoop还提供了分布式文件系统,用以存储所有计算节点的数据,这为整个集群带来了非常高的带宽。MapReduce和分布式文件系统的设计,使得整个框架能够自动处理节点故障。它使应用程序与成千上万的独立计算的电脑和PB级的数据连接起来。
主要子项目
- Hadoop Common:在0.20及以前的版本中,包含HDFS、MapReduce和其他项目公共内容,从0.21开始HDFS和MapReduce被分离为独立的子项目,其余内容为Hadoop Common
- HDFS:Hadoop分布式文件系统(Distributed File System)-HDFS(Hadoop Distributed File System)
- MapReduce:并行计算框架,0.20前使用org.apache.hadoop.mapred旧接口,0.20版本开始引入org.apache.hadoop.mapreduce的新API
Hadoop的配置分为三种:单机模式,伪分布式,分布式。对于个人来说,搭建Hadoop分布式还是需要一点代价的,至少你需要一个强大的内存去供应几台虚拟机的运行。从学习的层面上考虑,玩一玩Hadoop的单机或者伪分布式还是不难的。本文将详细介绍一下Ubuntu环境下Hadoop伪分布式的配置。
环境
- 64位的Ubuntu操作系统
- JDK1.8
- Hadoop-2.7.1
Hadoop的安装一般是在Linus下完成的,对于新手来说,Ubuntu操作系统是个十分不错的选择。它既提供了可视化的界面,又能够使用Linus的必备神器——终端。无论是使用Linus操作系统还是使用虚拟机中的Ubuntu都无关紧要。
Hadoop的运行是基于Java环境的基础上的,因此少不了JDK的安装与配置。目前JDK的版本中兼容性最高的还是JDK1.8,新版本的JDK并不支持Hadoop等一系列产品。
再者就是Hadoop的版本选择。这里有一个大大的坑。如果小伙伴们只想尝试一下Hadoop这一个应用程序,那对于版本就没必要太多的要求。但是如果想要更多的尝试,诸如:Hadoop,HBase,Hive,ZooKeeper等,那么版本选择一定要慎之又慎。因为Hadoop的相关产品之间的版本并不完全相容。如果版本选择不当,那么后续操作中最大的问题就是版本冲突造成的。为了兼容后续安装的HBase,我这里选择了兼容性比较高的Hadoop-2.7.1。
伪分布式的配置
JAVA环境的安装和配置
- 首先从Oracle官网下载Linus版本的JDK1.8,如图1-1
Oracle官网下载似乎需要注册一个Oracle账户,而且加载速度还非常非常慢,这真的很让人受不了。这里提供一个百度网盘下载的地址,提取码:zh62。
- 转到JDK下载包目录下,用tar命令将其解压到当前目录下。
我的JDK包下载在自定义的目录下:
JDK包下载目录:~/Downloads/JDK
JDK包将要安装到目录:/usr/lib/JDK
如果你没有设置过下载目录,浏览器默认下载在~/Downloads
下(~表示宿主目录,即你的用户名目录下),使用以下命令将JDK解压到指定目录($表示普通管理员权限,即用户自己):
$ sudo tar -zxvf ~/Downloads/JDK/jdk-8u221-linus-x64.tar.gz
(备注:代码部分是在宿主目录下执行的,而截图是在hadoop压缩包所在目录下执行的,注意区分。./
表示当前目录下)
将解压后的JDK包移动到/usr/lib
目录下:
$ sudo mv /usr/lib/jdk-8u221-linus-x64/jdk1.8.0_221 /usr/lib
(备注:如果以上两部出现问题,也可以使用鼠标手动执行)
将转移的名为jdk1.8.0_221
的解压包重命名为JDK
$ sudo mv /usr/lib//jdk1.8.0_221 /usr/lib/JDK
跳转到/usr/lib
目录下就可以发现重命名的JDK
文件夹了,进入该文件夹,用ls
命令可以查看该文件夹的文件,如图2-2所示。
- 配置JDK环境变量
首先打开用户配置文件,添加JDK的安装路径:
$ gedit ~/.bashrc
向打开的.bashrc配置文件中添加jdk路径:
export JAVA_HOME=/usr/lib/JDK
export JRE_HOME=/usr/lib/JDK/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
(备注:JAVA_HOME和JRE_HOME是你自己的JDK安装目录,也就是刚刚移动到/usr/lib目录下的那个解压包目录)
保存之后关闭.bashrc
配置文件,使用source
使配置文件重新加载:
$ source ~/.bashrc
然后小伙伴们就可以尝试输入java -version
来测试一下JDK是否配置完毕了
$ java -version
当看到以上界面时,说明你的JDK已经配置完成了(这里会输出JDK的版本信息,还是建议小伙伴们使用JDK1.8)。
SSH环境的安装和配置
集群、单节点模式都需要SSH登陆(类似于远程登陆,你可以登陆某台Linus主机),Ubuntu默认已经安装了SSH client,此外还需要安装SSH server。可以使用apt-get
的方式进行安装:
$ sudo apt-get install openssh-server
安装完成后,使用以下命令登陆本机:
$ ssh localhost
首次登陆时需要输入密码的,如图2-0-1所示。
按照上方提示,输入自己的用户登录密码就可以了(也就是开机密码)。当看到以下界面表明已经成功登陆本机了:
你以为这样就完了吗?其实没有。此时是登录成功了,但是每次登陆都需要输入密码,不烦吗?如果你觉得不烦,那么当我没说。因为刚开始我也是这么认为的。结果启动Hadoop的时候,我就后悔了。如果此时没有设置免密码登陆,那么在启动Hadoop时,每启动一个节点就需要输入一次密码。大约每次启动Hadoop都需要输入三次密码,这确实很不方便啊!我后来也是花了很大的功夫才解决这个问题。如果你这都忍受,那我也就无言以对了。你可以直接配置Hadoop了。但是还是建议大家在此配置免密码登陆。可以使用以下命令设置:
$ cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
$ ssh-keygen -t rsa # 提示按回车就可以
$ cat ./id_rsa.pub >> ./authorized_keys # 加入授权
此时就方便多了。然后我们又可以继续往下走了。
伪分布式模式的配置
- 从Hadoop官网下载Hadoop压缩包。
这里再强调一遍:因为Hadoop与其他产品,如HBase等,存在版本兼容性问题(只玩Hadoop的自行略过),因此Hadoop版本选择一定要慎重。这里我选择了Hadoop-2.7.1,与HBase-2.0.6是兼容的,亲测有效。
(备注:高版本的Hadoop与HBase(我曾以Hadoop-2.8.3+与HBase-2.0.6搭配测试过)会出现问题,比如在开启HBase之后,HMaster会莫名其妙的挂掉,又或者stop-hbase.sh命令无法关闭HRegionServer等。)
下面的步骤就与安装JDK时差不多了。
- 转到Hadoop下载包目录下,用tar命令将其解压到当前目录下。
我的Hadoop包下载在自定义的目录下:
Hadoop包下载目录:~/Downloads/Hadoop
Hadoop包将要安装到目录:/usr/local/Hadoop
使用以下命令将Hadoop下载包解压到指定目录
$ sudo tar -zxvf ~/Downloads/Hadoop/hadoop-2.7.1.tar.gz -C /usr/local
(此步骤支持手动)
将/usr/local
目录下的hadoop-2.7.1
重命名为Hadoop
,使用命令如下:
$ sudo mv /usr/local/hadoop-2.7.1 /usr/local/Hadoop
然后就可以转到/usr/local
目录下查看Hadoop文件夹了:
这个时候在/usr/local/Hadoop/bin
目录下,我们就可以使用hadoop version
命令查看Hadoop是否安装成功了。但是为了方便使用,我们还是要配置环境变量,这样直接在宿主目录下就可以使用相关命令。
为了避免在后续操作中因为对文件的权限问题而导致部分命令无法正确执行,在此处我们用chmod命令赋予用户对文件的权限:
$ sudo chmod -R a+w /usr/local/Hadoop
- 配置Hadoop的环境变量
与配置JDK环境变量相似,我们首先打开用户配置文件.bashrc
文件:
$ gedit ~/.bashrc
向打开的.bashrc
配置文件中添加Hadoop解压包的安装路径:
export HADOOP_HOME=/usr/local/Hadoop
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH
然后重新加载配置文件:
$ source ~/.bashrc
这时候如果不出意外的话,我们在宿主目录下输入hadoop version
是可以查看到版本信息的:
$ hadoop version
当看到以上界面时,表明Hadoop安装成功了。但不要高兴的太早,我们还没有开始配置伪分布式。下面开始配置伪分布式。
- 配置Hadoop伪分布式
Hadoop伪分布式的搭建需要修改两份配置文件:core-site.xml
和hdfs-site.xml
。
- 修改
core-site.xml
core-site.xml
目录:/usr/local/Hadoop/etc/hadoop/core-site.xml
仍然使用gedit
方式打开该文件:
$ sudo gedit /usr/local/Hadoop/etc/hadoop/core-site.xml
你会发现该文件除了注释内容之外,只有两行内容:
<configuration>
</configuration>
我们需要将其修改为:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/Hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
上面的文本中<value>file:/usr/local/Hadoop/tmp</value>
是我的Hadoop的安装目录,此处需要自己修改一下。
- 修改
hdfs-site.xml
hdfs-site.xml
目录:/usr/local/Hadoop/etc/hadoop/hdfs-site.xml
修改方法与前者相同,使用gedit
打开该文件:
$ sudo gedit /usr/local/Hadoop/etc/hadoop/hdfs-site.xml
文件的初始内容也只有以下两行:
<configuration>
</configuration>
我们需要将其修改为:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name> <value>file:/usr/local/Hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/Hadoop/tmp/dfs/data</value>
</property>
</configuration>
与上面相同,注意修改两处<value>file:/usr/local/Hadoop/tmp/dfs/data</value>
路径部分。
至此,Hadoop伪分布式的配置就完成了。下面开始测试一下你的Hadoop搭建成功了没有?
- 初始化Hadoop,并开启Hadoop
配置完成后,我们对Hadoop进行初始化,在/usr/local/Hadoop
目录下,执行以下命令(已经配置了环境变量的,可以直接在宿主目录下进行):
./bin/hdfs namenode -format
这一步可能需要等一小会儿,当看见以下字样,说明初始化成功:
进行到这里,基本上就没有什么大问题了。我们可以试着启动Hadoop了,使用start-dfs.sh
来启动Hadoop:
$ start-dfs.sh
第一次启动Hadoop的时候,会出现SSH登陆提示,输入yes/Y即可(具体看提示)。可以使用jps
命令查看已运行的活动及其所占用的端口,如图3-5-3所示:
我们可以使用stop-dfs.sh
命令关闭已经启动的Hadoop:
$ stop-dfs.sh
OK!到此为止,恭喜你的Hadoop伪分布式搭建成功!小伙伴们可以使用Hadoop运行一些简单的实例,过过瘾。
本文的主题内容到此就结束了。希望我的博客能对你有一些帮助。